Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Konec podpory a historie ukončení životnosti. Pro všechny podporované verze Databricks Runtime vizte poznámky k vydání Databricks Runtime - verze a kompatibilita.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 17.2, který využívá Apache Spark 4.0.0.
Tato verze zahrnuje všechny funkce, vylepšení a opravy chyb ze všech předchozích verzí Databricks Runtime. Databricks vydala tuto verzi v září 2025.
Změny chování
-
DESCRIBE CONNECTIONzobrazuje nastavení prostředí pro připojení JDBC. - Možnost zkrátit jednotnou historii během migrace spravovaných tabulek
- Syntaxe SQL pro možnosti čtení Delta v dotazech streamování
-
Správné výsledky pro
splits prázdným regulárním výrazem a kladným limitem -
Oprava
url_decodeatry_url_decodezpracování chyb ve Photonu - Sdílené výkonné prostředí pro uživatelské definované funkce Pythonu pro Unity Catalog
- Sledování řádků je ve výchozím nastavení povolené pro nové tabulky.
- TABLE Podpora argumentů pro uživatelsky definované tabulkové funkce Pythonu v katalogu Unity
DESCRIBE CONNECTION zobrazuje nastavení prostředí pro připojení JDBC.
Azure Databricks teď obsahuje uživatelsky definovaná nastavení prostředí ve výstupu DESCRIBE CONNECTION pro připojení JDBC, která podporují vlastní ovladače a běží izolovaně. Ostatní typy připojení zůstávají beze změny.
Možnost zkrátit jednotnou historii během migrace spravovaných tabulek
Nyní můžete zkrátit jednotnou historii při migraci tabulek s povolenými Uniform/Iceberg pomocí ALTER TABLE...SET MANAGED. To zjednodušuje migrace a snižuje výpadky v porovnání s ručním deaktivováním a opětovným aktivováním funkce Uniform.
Syntaxe SQL pro možnosti čtení Delta v dotazech streamování
Pomocí klauzule WITH teď můžete zadat možnosti čtení Delta pro SQL dotazy na streamování. Například:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Správné výsledky pro split s prázdným regexem a kladným limitem
Azure Databricks teď vrací správné výsledky při použití split function s prázdným regulárním výrazem a kladným limitem. Dříve funkce nesprávně zkrátila zbývající řetězec namísto zahrnutí do posledního prvku.
Opravit zpracování chyb url_decode a try_url_decode ve Photonu
V Photon nyní try_url_decode() a url_decode() s failOnError = false vrátí NULL pro neplatné řetězce kódované adresou URL místo selhání dotazu.
Sdílené spouštěcí prostředí pro uživatelem definované tabulkové funkce Pythonu v katalogu Unity
Azure Databricks nyní sdílí spouštěcí prostředí pro uživatelem definované tabulkové funkce v Pythonu (UDTFs), které mají stejného vlastníka a běží ve stejné Spark relaci. Volitelná klauzule STRICT ISOLATION je k dispozici k zakázání sdílení UDTF s vedlejšími účinky, jako je například úprava proměnných prostředí nebo spuštění libovolného kódu.
Sledování řádků je ve výchozím nastavení povolené pro nové tabulky.
Azure Databricks teď umožňuje sledování řádků ve výchozím nastavení pro všechny nově vytvořené spravované tabulky Unity Catalog. Stávající tabulky nejsou ovlivněné a udržují jejich aktuální nastavení sledování řádků.
TABLE Podpora argumentů pro uživatelsky definované tabulkové funkce Pythonu v katalogu Unity
Funkce Unity Catalog Python UDTFs podporují TABLE argumenty, které umožňují přijímat celé tabulky jako vstupní parametry, což umožňuje složitější transformace a agregace dat ve strukturovaných datových sadách. Viz uživatelem definované funkce tabulek v Pythonu (UDTFs) v katalogu Unity. (Backportováno z verze 17.3 LTS).
Nové funkce a vylepšení
- LIKE podporuje kolaci UTF8_LCASE
-
st_exteriorringfunkce je teď podporovaná. - Zobrazit detaily pushdownu v
EXPLAINa uživatelském rozhraní Spark pro vzdálené skeny -
Deklarace více relací nebo místních proměnných v jednom
DECLAREpříkazu -
Podpora klíčového slova
TEMPORARYpro vytvoření zobrazení metrik - Podpora dalších příkazů s jemně odstupňovaným řízením přístupu
-
Selektivně a atomicky nahraďte data
INSERT REPLACE USINGaINSERT REPLACE ON(GA) -
Použití nativních vstupně-výstupních operací pro
LokiFileSystem.getFileStatusS3 - Režim ANSI je ve výchozím nastavení povolený pro rozhraní Pandas API ve Sparku
-
Auto Loader detekuje sloupce oddílů v konkrétním režimu
singleVariantColumn.
LIKE podporuje kolaci UTF8_LCASE
Operátor LIKE nyní podporuje UTF8_LCASE kolaci, což umožňuje nerozlišovat mezi malými a velkými písmeny.
st_exteriorring funkce je teď podporovaná.
Teď můžete pomocí st_exteriorring funkce extrahovat vnější hranici mnohoúhelníku a vrátit ji jako přímku. Viz st_exteriorring funkce.
Zobrazit podrobnosti o přenosu výpočtů v EXPLAIN a v uživatelském rozhraní Sparku pro vzdálené dotazy
Příkaz EXPLAIN a uživatelské rozhraní Spark pro RemoteSparkConnectScan na vyhrazených výpočetních prostředcích nyní zobrazují predikáty, agregace, seskupení podle klauzulí, omezení a vzorky, které se přesunují do vzdáleného skenu.
Deklarace více relací nebo místních proměnných v jednom DECLARE příkazu
V Databricks Runtime 17.2 a novějších můžete deklarovat více relací nebo místních proměnných stejného typu a výchozí hodnoty v jednom DECLARE příkazu. Viz DECLARE VARIABLE a složený příkaz BEGIN END.
Podpora klíčového slova TEMPORARY pro vytvoření zobrazení metrik
Teď můžete použít klíčové slovo TEMPORARY při vytváření metrického zobrazení. Dočasná zobrazení metrik jsou viditelná pouze v relaci, která je vytvořila, a po skončení relace se odstraní. Viz CREATE VIEW.
Podpora dalších příkazů s jemně odstupňovaným řízením přístupu
Jemně odstupňované řízení přístupu na vyhrazených výpočetních prostředcích teď podporuje příkazy FSCK REPAIR TABLE a DESCRIBE DETAIL.
Selektivně a atomicky nahraďte data INSERT REPLACE USING a INSERT REPLACE ON (GA)
INSERT REPLACE USING a INSERT REPLACE ON jsou nyní obecně dostupné pro Databricks Runtime 17.2. Oba příkazy SQL nahrazují část tabulky výsledkem dotazu.
INSERT REPLACE USING nahradí řádky, když USING sloupce jsou rovny podle rovnosti.
INSERT REPLACE ON nahradí řádky, pokud odpovídají uživatelem definované podmínce.
Viz INSERT referenční informace k jazyku SQL a selektivní přepsání dat pomocí Delta Lake.
Použijte nativní I/O pro LokiFileSystem.getFileStatus na S3
LokiFileSystem.getFileStatus nyní používá nativní vstupně-výstupní zásobník pro provoz Amazon S3 a vrací org.apache.hadoop.fs.FileStatus objekty místo shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
Režim ANSI je ve výchozím nastavení povolený pro rozhraní Pandas API ve Sparku
ANSI_MODE je teď ve výchozím nastavení povolená pro rozhraní Pandas API ve Sparku a compute.ansi_mode_support=Truezajišťuje paritu dodržování předpisů ANSI s nativní knihovnou pandas. Tato compute.fail_on_ansi_mode možnost platí i v případě, že compute.ansi_mode_support je nastaveno na False.
Automatický zavaděč odvodí sloupce oddílů v singleVariantColumn režimu.
Automatický zavaděč nyní odvozuje sloupce pro oddíly z cest k souborům, když se data načítají ve formátu částečně strukturované varianty pomocí volby singleVariantColumn. Dříve nebyly sloupce oddílů automaticky detekovány. Podívejte se na možnosti automatického zavaděče.
Upgrady knihoven
Upgradované knihovny Pythonu:
V této verzi nebyly upgradovány žádné knihovny Pythonu.
Upgradované knihovny jazyka R:
V této verzi nebyly upgradovány žádné knihovny R.
Upgradované knihovny Java:
- io.delta.delta-sharing-client_2.13 od 1.3.3 do 1.3.5
Apache Spark
Databricks Runtime 17.2 zahrnuje Apache Spark 4.0.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku zahrnuté v předchozí verzi a také následující:
-
SPARK-53183 Místo javy použijte Javu
Files.readString.o.a.s.sql.catalyst.util.fileToString - SPARK-51817 Opětovné zavedení polí ansiConfig ve messageParameters CAST_INVALID_INPUT a CAST_OVERFLOW
- SPARK-53124 Vyřazení nepotřebných polí z JsonTuple
- SPARK-53106 Přidání testů vývoje schématu pro sady PŘIPOJENÍ TWS Scala Spark
-
SPARK-53201 Používejte
SparkFileUtils.contentEqualsmístoFiles.equal - SPARK-53308 Neodstraňujte aliasy v RemoveRedundantAliases, které by způsobily duplicity
-
SPARK-53241 Podpora
createArrayvSparkCollectionUtils -
SPARK-53239 Zlepšení
MapSortaSortArrayvýkon prostřednictvímparallelSort - SPARK-53184 Oprava funkce melt() při kombinaci řetězců a čísel ve sloupcích hodnot
- SPARK-53144 Zajistit, aby CreateViewCommand v SparkConnectPlanner byl bez vedlejších účinků
- SPARK-53303 Použijte kodér prázdného stavu, pokud není v TWS zadaný počáteční stav.
- SPARK-52917 Podpora čtení umožňující obousměrnou operaci s binárními daty ve formátu XML
- SPARK-53110 Implementace funkce time_trunc v PySpark
- SPARK-53107 Implementace funkce time_trunc v jazyce Scala
- SPARK-52146 Detekce odkazů na cyklické funkce v UDF SQL
- SPARK-52469 Použití rozhraní JEP 223 API ke zpracování verze Javy
- SPARK-53094 Oprava datové krychle s agregačními klauzulemi obsahujícími HAVING klauzule
- SPARK-51874 Přidání TypedConfigBuilder pro Scala – výčet
- SPARK-53287 Přidat Průvodce migrací ANSI
- SPARK-43100 Metriky shuffle na základě přesměrování musí být správně deserializovány.
- SPARK-53045 DESCRIBE EXTENDED by měl být odolný vůči poškozeným metadatům.
-
SPARK-53114 Podpora
joinvJavaUtils - SPARK-53297 Oprava dokumentace k rozhraní API deklarativních kanálů StreamTable
- SPARK-53181 Povolení testů dokumentace v rámci ANSI
- SPARK-52482 Vylepšení zpracování výjimek při čtení některých poškozených souborů zstd
-
SPARK-52990 Podpora
StringSubstitutor - SPARK-51874 Přidání TypedConfigBuilder pro Scala – výčet
-
SPARK-53169 Odebrání komentářů souvisejících s textem "
Set the logger level of File Appender to" zlog4j2.properties -
SPARK-53080 Podpora pro
cleanDirectoryv rámciSparkFileUtilsaJavaUtils - SPARK-53045 DESCRIBE EXTENDED by měl být odolný vůči poškozeným metadatům.
-
SPARK-53000 Přejmenování
StringUtils.scalanaStringConcat.scalavsql/apimodulu - SPARK-52952 Přidání vývojového skriptu PySpark UDF pro typovou konverzi
- SPARK-52998 Více proměnných uvnitř deklarace
- SPARK-51817 Opětovné zavedení polí ansiConfig ve messageParameters CAST_INVALID_INPUT a CAST_OVERFLOW
- SPARK-52820 Zachytávání celých plánů ve zlatých souborech
- SPARK-53274 Podpora propagace levého a pravého spojení v nástroji JDBCScanBuilder
- SPARK-52110 Implementace podpory syntaxe SQL pro kanály
- SPARK-52950 Povolení režimu ANSI v DataSourceV2StrategySuite
- SPARK-52947 Oprava cesty k obrázku v průvodci programováním deklarativních kanálů
- SPARK-52592 Podpora vytvoření ps. Série z ps. Série
- SPARK-53301 Rozlišení typových nápověd pro Pandas UDF a Arrow UDF
- SPARK-53146 Uvolnění vedlejšího efektu MergeIntoTable ve SparkConnectPlanneru
-
SPARK-53166 Použití
SparkExitCode.EXIT_FAILUREv objektuSparkPipelines - SPARK-53288 Oprava chyby kontrolního výrazu s globálním limitem streamování
- SPARK-52394 Oprava chyby při dělení nulou v režimu ANSI při automatické korelaci
- SPARK-51555 Přidání funkce time_diff()
- SPARK-52948 Povolení test_np_spark_compat_frame v rámci ANSI
- SPARK-53134 Vyčištění nepoužívaných importů ANSI v testech
-
SPARK-52593 Vyhněte se CAST_INVALID_INPUT
MultiIndex.to_series,Series.dotaDataFrame.dotv režimu ANSI - SPARK-53291 Oprava nullovatelnosti pro sloupec s hodnotami
- SPARK-53097 Uvolnění vedlejšího efektu WriteOperationV2 ve SparkConnectPlanneru
- SPARK-53305 Podpora TimeType v createDataFrame
-
SPARK-52914 Podpora
On-Demand Log Loadingprůběžných protokolů vHistory Server - SPARK-33538 Přímé nasazení IN/NOT predikátů do Hive Metastoru
-
SPARK-52849 Přidat
stringifyExceptiondoo.a.s.util.Utils -
SPARK-52771 Oprava rozšiřování typu float32 v
truediv/floordiv - SPARK-52502 Přehled počtu vláken
- SPARK-52788 Oprava chyby převodu binární hodnoty v BinaryType na XML
-
SPARK-53123 Podpora
getRootCausevSparkErrorUtils -
SPARK-53129 Vylepšení
SparkShellimportujava.net._ve výchozím nastavení -
SPARK-53061 Podpora
copyFileToDirectoryvSparkFileUtils - SPARK-52683 Podpora ExternalCatalog pro změnu schématu tabulky
-
SPARK-52871 Sloučit
o.a.s.sql.catalyst.util.SparkStringUtilsdoo.a.s.util.SparkStringUtils -
SPARK-52817 Oprava
Likevýkonu výrazů - SPARK-52545 Standardizace úniku dvojitých uvozovek podle specifikace SQL
-
SPARK-52711 Oprava rozšíření typu float32 v
mul/rmulrámci ANSI - SPARK-52615 Nahraďte File.mkdirs funkcí Utils.createDirectory
- SPARK-52381 JsonProtocol: Přijmout pouze podtřídy SparkListenerEvent
- SPARK-52613 Obnovení tisku úplného trasování zásobníku při výskytu výjimky u HBase/Hive DelegationTokenProvider
- SPARK-52651 Zpracování uživatelem definovaného typu ve vnořeném sloupci Vector
- SPARK-52611 Oprava verze SQLConf pro excludeSubqueryRefsFromRemoveRedundantAliases...
- SPARK-52552 Přeskočit vynucení omezení CHECK pro vymazání vektorů výmazů
-
Spark-52587 spark-shell 2.13 – parametr podpory
-i-I - SPARK-52492 Umožnit přizpůsobení InMemoryRelation.convertToColumnarIfPossible
- SPARK-52451 Uvolnění vedlejšího efektu WriteOperation ve SparkConnectPlanneru
- SPARK-53272 Úprava logiky zasunutí SPJ z BatchScanExec
-
SPARK-53071 Podpora
copyFilevSparkFileUtils - SPARK-51415 Podpora typu času podle make_timestamp()
- SPARK-51554 Přidání funkce time_trunc()
- SPARK-52426 Podpora přesměrování stdout/stderr do systému protokolování
- SPARK-51834 Podpora kompletní správy omezení tabulek
- SPARK-53063 Implementace a volání nových rozhraní API v FileCommitProtocol místo zastaralého rozhraní API
- SPARK-52546 zkontrolujte sparkContext, zda se zastavil při spuštění bloku kódu catch v execute(), jinak vrátí nesprávný stav.
-
SPARK-53023 Odebrání
commons-iozávislosti zsql/apimodulu - SPARK-52396 Kořenový adresář artefaktů by měl používat tmpdir.
-
SPARK-53131 Vylepšit
SparkShelltak, aby importovaljava.nio.file._ve výchozím nastavení - SPARK-42322 Přiřadit název to_LEGACY_ERROR_TEMP_2235
- SPARK-51834 Podpora kompletní správy omezení tabulek
- SPARK-52484 Přeskočit kontrolní výraz child.supportsColumnar ze strany ovladače ve ColumnarToRowExec
- SPARK-52384 Oprava chyby Connect by měla nerozlišovat možnosti JDBC
- SPARK-52034 Přidání běžných metod ve SparkOperation trait pro operace thriftserveru
-
SPARK-53031 Podpora
getFilevSparkFileUtils - SPARK-52976 Oprava, že UDF v Pythonu nepřijímá kompletovaný řetězec jako vstupní parametr nebo návratový typ (17.x)
- SPARK-52943 Povolení arrow_cast pro všechny typy UDF definovaných uživatelem pandas
- SPARK-53263 Podpora TimeType ve funkci df.toArrow
- SPARK-53141 Přidat rozhraní API pro získání režijní velikosti paměti a velikosti paměti mimo hromadu z profilu zdrojů
- SPARK-53259 Oprava zprávy pro INVALID_UDF_EVAL_TYPE
- SPARK-53167 Spouštěč Sparku isRemote respektuje také soubor vlastností.
-
SPARK-53165 Přidat
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Zlepšení UTF8String repeat
-
SPARK-53170 Vylepšení
SparkUserAppExceptionprocauseparametr - SPARK-52989 Přidání explicitního rozhraní API close() do iterátorů úložiště stavů
- SPARK-53074 Vyhněte se částečnému clusteringu v SPJ, aby bylo splněno požadované rozdělení dítěte.
- SPARK-52252 Enkodéry ScalaUDF v poddotazu by měly být vyřešeny.
- SPARK-53244 Při vytváření zobrazení neukládejte konfigurace s povoleným duálním spuštěním a předběžným režimem.
- SPARK-53192 Vždy ukládat zdroj dat do mezipaměti plánu Spark Connect
- SPARK-51813 Přidání nenulového DefaultCachedBatchKryoSerializer, aby se zabránilo šíření nulových hodnot v DefaultCachedBatch ser/de
- SPARK-52904 Znovu aplikovat "[SC-202233][python] Povolit convertToArrowArrayS…
-
SPARK-53253 Oprava registrace uživatelsky definované funkce typu
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 Zobrazení seznamu podporovaných typů hodnocení v uzlech se šipkami
-
SPARK-53130 Oprava
toJsonchování seřazených typů řetězců -
SPARK-53003 Podpora
stripvSparkStringUtils - SPARK-51902 Synchronizace OSS: Vynucení ověřovacího omezení při vkládání do tabulky
- SPARK-52047 Vyvolat PySparkValueError pro nepodporované typy grafů
-
SPARK-53004 Podpora
abbreviatevSparkStringUtils - SPARK-53066 Vylepšení EXPLAIN výstupu pro nabízení připojení DSv2
- SPARK-30848 Odebrání productHash ze TreeNode
-
SPARK-53046 Použijte Javu místo
readAllBytesIOUtils.toByteArray -
SPARK-53206 Používejte
SparkFileUtils.movemístocom.google.common.io.Files.move - SPARK-53066 Vylepšení EXPLAIN výstupu pro nabízení připojení DSv2
- SPARK-53069 Oprava nesprávných metrik úložiště stavů pomocí rodin virtuálních sloupců
- SPARK-52904 Povolit convertToArrowArraySafely jako výchozí [17.x]
- Spark-52821 add int-DecimalType> pyspark udf return type coercion
-
SPARK-51562 Přidání
timefunkce - SPARK-52971 Omezení velikosti nečinné pracovní fronty Pythonu
-
SPARK-53057 Podpora
sizeOfvSparkFileUtilsaJavaUtils - SPARK-53040 Zákaz samo-referencí uvnitř nejvyšších CTE v Rekurzivní CTE
- SPARK-53104 Implementace ansi_mode_context, aby se předešlo více kontrolám konfigurace při každém volání API
-
SPARK-47547 Přidání
BloomFilterV2 a jeho použití jako výchozí -
SPARK-53098
DeduplicateRelationsby neměly přemapovat výrazy, pokud ve výstupu stále existují staréExprId -
SPARK-53049 Podpora
toStringvSparkStreamUtils -
SPARK-53062 Podpora
deleteQuietlyvSparkFileUtilsaJavaUtils -
SPARK-53070 Podpora
is(Not)?EmptyvSparkCollectionUtils - SPARK-53020 Rgy JPMS by se také měly vztahovat na jiný proces než SparkSubmit.
- SPARK-52968 Generování dalších metrik úložiště stavů
- SPARK-52975 Zjednodušte názvy polí pro pushdown join v SQL
- SPARK-52926 Byla přidána metrika SQL pro dobu trvání načítání vzdáleného schématu.
- SPARK-53059 Arrow UDF nemusí záviset na pandas
-
SPARK-52646 Vyhněte se CAST_INVALID_INPUT
__eq__v režimu ANSI -
SPARK-52622 Vyhněte se CAST_INVALID_INPUT
DataFrame.meltv režimu ANSI - SPARK-52985 Vyvolat TypeError pro operand pandas numpy v porovnávacích operátorech
-
SPARK-52580 Vyvarujte se CAST_INVALID_INPUT
replacev režimu ANSI - SPARK-52549 Zakázat rekurzivní odkazy na CTE ve funkcích pro okna a v rámci třídění
-
SPARK-52895 Nepřidávejte duplicitní prvky v
resolveExprsWithAggregate - SPARK-50748 Oprava problému s podmínkou soutěže, ke které dochází při přerušení operací
- SPARK-52737 Posun predikátu a počtu aplikací do FsHistoryProvider při výpisu aplikací
- SPARK-53018 ArrowStreamArrowUDFSerializer by měl respektovat argument arrow_cast
- SPARK-53013 Oprava Python UDTF optimalizovaného pomocí Arrow nevracejícího žádné řádky při laterálním spojení
- SPARK-51834 Synchronizace Open Source Software: Podpora komplexního omezení tabulky s možností úpravy přidání/odebrání omezení
- SPARK-52921 Určete výstupní dělení pro UnionExec tak, aby odpovídalo výstupnímu dělení podřízených operátorů
- SPARK-52908 Zabránění kolidování názvu proměnné iterátoru s názvy popisků v cestě ke kořenovému adresáři AST
- SPARK-52954 Podpora přetypování návratového typu v Arrow UDF
- SPARK-52925 Vrácení správné chybové zprávy pro samostatné odkazy na kotvy v rekurzivních CTEs
- SPARK-52889 Implementace funkce current_time v PySpark
- SPARK-52675 Přerušit zaseknuté obslužné moduly ML v testech
- SPARK-52959 Podpora UDT v Python UDTF optimalizovaném pomocí Arrow
- SPARK-52962 BroadcastExchangeExec by neměl resetovat metriky
- SPARK-52956 Zachování metadat aliasů při seskupení projektů
- SPARK-52890 Implementace funkcí to_time a try_to_time v PySpark
- SPARK-52888 Implementace funkce make_time v PySparku
- SPARK-52892 Podpora ČASU v hodinových, minutových a druhých funkcích v PySparku
- SPARK-52837 Podpora TimeType v PySpark
- SPARK-52023 Oprava poškození dat/segfault při vracení typu Option[Product] z UDAF
- SPARK-52955 Změna návratových typů WindowResolution.resolveOrder a WindowResolution.resolveFrame na WindowExpression
- SPARK-52166 Přidání podpory pro PipelineEvents
- SPARK-51834 Oprava: Odebrání položky 'valid' z toDDL
- SPARK-52735 Oprava chybějících chybových podmínek pro uživatelsky definované funkce SQL
- SPARK-51834 Synchronizace podpory OSS pro end-to-end vytvoření/náhradu tabulky s omezením
- SPARK-51834 Synchronizace aktualizací OSS ResolvedIdentifier unapply volání
- SPARK-52929 Podpora konektoru MySQL a SQLServer pro nabízení připojení DSv2
- SPARK-52448 Přidání zjednodušeného výrazu Struct Expression.Literal
- SPARK-52882 Implementace funkce current_time v jazyce Scala
- SPARK-52905 UDF se šipkou pro okno
-
SPARK-52876 Oprava překlepu z
buffernabodyvChunkFetchSuccess.toString - SPARK-52883 Implementace funkcí to_time a try_to_time v jazyce Scala
-
SPARK-52751 Neprovádět předčasné ověření názvu sloupce v
dataframe['col_name'] - SPARK-52791 Oprava chyby při odvozování UDT s prvním prvkem s hodnotou null
-
SPARK-52686
Unionby mělo být vyřešeno pouze v případě, že neexistují žádné duplicity. - SPARK-52881 Implementace funkce make_time v jazyce Scala
- SPARK-52919 Oprava odsdílení připojení DSv2 pro použití dříve aliasovaného sloupce
-
SPARK-52866 Přidání podpory pro
try_to_date - SPARK-52846 Přidání metriky v JDBCRDD pro dobu, po jakou trvá načtení sady výsledků
- SPARK-52859 Přidání vlastnosti SparkSystemUtils
- SPARK-52823 Podpora odsdílení připojení DSv2 pro konektor Oracle
- SPARK-52165 Nastavení generování uživatelského rozhraní sestavení pro projekt kanálů
- SPARK-52869 Přidání ověření FrameLessOffsetWindowFunction pro ověření ResolvedWindowExpression pro opakované použití v analyzátoru provádějícím jediný průchod
- SPARK-52885 Implementace hodinových, minutových a druhých funkcí v jazyce Scala pro typ TIME
- SPARK-52903 Odstranění podřízených aliasů před rozlišením LCA
- SPARK-52832 Oprava uvozování identifikátoru dialektu JDBC
-
SPARK-52870 Správně uzavřít názvy proměnných do uvozovek v
FORpříkazu -
SPARK-52859 Přidat
SparkSystemUtilsvlastnost -
SPARK-52900 Použít
SparkStringUtils.stringToSeqvFsHistoryProvider - SPARK-52809 Neuchovávejte odkazy na čtečku a iterátor pro všechny oddíly v naslouchacích procesech dokončení úkolů pro aktualizaci metrik.
-
SPARK-52815 Vylepšit
SparkClassUtilspro podporugetAllInterfaces - SPARK-52795 Zahrnutí ID spuštění do protokolů úložiště stavů
- SPARK-52779 Podpora literálu TimeType v Connect
- SPARK-52899 Oprava testu QueryExecutionErrorsSuite pro registraci H2Dialect zpět
-
SPARK-52862 Oprava kontroly nulovatelnosti
Decimal('NaN') - SPARK-52214 UDF se šipkou pro agregaci
- SPARK-52787 Změna uspořádání oblastí spouštění streamování kolem oblastí runtime a kontrolních bodů
- SPARK-51564 Syntaktická analýza ČASU ve 12hodinovém formátu
-
SPARK-52859 Přidat
SparkSystemUtilsvlastnost -
SPARK-51562 Přidání
timefunkce - SPARK-52850 Přeskočení převodů volání, pokud funkce identity
- SPARK-52863 Vyčištění cest kódu pro staré verze pandas
- SPARK-52516 Po postupu na další soubor v ParquetPartitionReaderFactory neudržujte předchozí referenční informace iterátoru.
-
SPARK-52848 Vyhněte se přetypování na
Double, když se čas nebo časové razítko přetypovává na desetinné číslo. -
SPARK-52770 Podpora typu
TIMEv connect proto - SPARK-52842 Nové funkce a opravy chyb pro analyzátor s jedním průchodem
- SPARK-52620 Podpora přetypování času na DECIMAL
- SPARK-52783 Refaktoring logiky ověřování windowFunction z checkAnalysis pro opakované použití v analyzátoru s jedním průchodem
- SPARK-51695 Synchronizace OSS vytvořit/nahradit/upravit tabulku pro jedinečné omezení prostřednictvím DSv2
- SPARK-51695 Synchronizace omezení rušení open-source softwaru přes DSv2
- SPARK-52824 Klasifikace chyb CheckpointFileManager
- SPARK-52829 Oprava LocalDataToArrowConversion.convert pro správné zpracování prázdných řádků
- SPARK-52811 Optimalizace ArrowTableToRowsConversion.convert za účelem zlepšení výkonu
- SPARK-52796 Optimalizace LocalDataToArrowConversion.convert za účelem zvýšení výkonu
- SPARK-51695 Synchronizace změn parseru OSS pro změnu tabulky a přidání omezení
- SPARK-52619 Přetypování typu TimeType na IntegralType
- SPARK-52187 Zavedení propagace spojení pro DSv2
- SPARK-52782 Vrácení hodnoty NULL z +/- v datetime s hodnotou NULL
- SPARK-51695 Zavedení změn parseru pro omezení tabulky (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationsby měla být pozitivní - SPARK-52776 Nerozdělujte comm pole v nástroji ProcfsMetricsGetter
-
SPARK-52793 Podpora
isUnixve společnostio.a.s.util.Utils -
SPARK-52792 Odstranit
commons-lang3závislost znetwork-common -
SPARK-52797 Použijte
Utils.isWindowsmísto opětovného vyhodnocení vPythonWorkerFactory - SPARK-52784 Přidejte přetypování typu TimeZoneAware ve funkci WindowFrameTypeCoercion.createBoundaryCast
- SPARK-52725 Zpoždění inicializace správce profilů prostředků, dokud se nenačte modul plug-in
- SPARK-52565 Vynucení ordinálního rozlišení před jinými výrazy řazení
- SPARK-52740 Oprava NPE v HDFSBackedStateStoreProvider při přístupu k StateStoreConf.sqlConf, když je verze formátu kontrolních bodů >= 2
- SPARK-52673 Přidání zpracování gRPC RetryInfo do zásad opakování pro Spark Connect
- SPARK-52724 Vylepšení zpracování chyb připojení k všesměrovým vysíláním s podporou nápovědy pro SHUFFLE_MERGE
- SPARK-52781 Oprava překlepu dtyeps v internal.py
- SPARK-52730 Uložení základního ovladače a verze databáze v JDBCRDD
- SPARK-52727 Přepracování řešení okna pro opětovné použití v rámci jednorázového analyzátoru
- SPARK-52695 Podpora zápisu uživatelem definovaného typu pro formát souboru XML
- SPARK-52722 Vyřazení třídy JdbcRDD
- SPARK-51695 Zavedení změn parseru pro omezení tabulky (CHECK, PK, FK)
- SPARK-52763 Podpora odečítání ČASU
- SPARK-52768 Oprava překlepu "moveing" v pandas/series.py
- SPARK-52730 Uložení základního ovladače a verze databáze v JDBCRDD
-
SPARK-52694 Přidání
o.a.s.sql.Encoders#udtrozhraní API -
SPARK-52720 Oprava rozšíření typu float32 v
add/raddpodle ANSI - SPARK-52723 Ověření názvu sloupce na straně serveru
-
SPARK-52760 Oprava rozšíření typu float32 v
sub/rsubv rámci ANSI -
SPARK-52738 Podpora agregace typu TIME pomocí UDAF, pokud je podkladová vyrovnávací paměť typu
UnsafeRow - SPARK-52704 Zjednodušení spolupráce mezi sqlConf a možnostmi formátu souboru v textBasedFileFormats
- SPARK-52706 Oprava nekonzistence a refaktoring primitivních typů v analyzátoru
-
SPARK-52718 Oprava rozšíření typu float32 v
rmod/modrámci ANSI - SPARK-52736 Oprava překlepů při přesouvání v pyspark/pandas/generic.py
Podpora ovladačů ODBC/JDBC pro Azure Databricks
Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgradujte (stáhněte rozhraní ODBC, stáhněte JDBC).
Aktualizace údržby
Viz aktualizace údržby Azure Databricks Runtime 17.2.
Systémové prostředí
- Operační systém: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Nainstalované knihovny Pythonu
| Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
|---|---|---|---|---|---|
| anotované typy | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | šíp | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| automatické příkazy | 2.2.2 | azure-common | 1.1.28 | Azure-Core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob (služba pro ukládání dat na platformě Azure) | 12.23.0 | Služba "Azure Storage File Data Lake" | 12.17.0 | babylón | 2.16.0 |
| backports.tarfile | 1.2.0 | BeautifulSoup4 | 4.12.3 | černý | 24.10.0 |
| bělidlo | 6.2.0 | blikač | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | nástroje pro ukládání do mezipaměti | 5.5.1 | certifikát | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | nástroj pro normalizaci znakové sady | 3.3.2 |
| klikni | 8.1.7 | cloudpickle | 3.0.0 | Komunikace | 0.2.1 |
| ContourPy | 1.3.1 | kryptografie | 43.0.3 | cyklista | 0.11.0 |
| Cython | 3.0.12 | Databricks SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | dekoratér | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | převod docstringu do formátu markdown | 0.11 |
| provedení | 0.8.3 | přehled aspektů | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | zamykání souboru | 3.18.0 | nástroje pro písma | 4.55.3 |
| Fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth (autentizace) | 2.40.0 |
| google-cloud-core | 2.4.3 | Úložiště Google Cloud | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | časovat/skloňovat | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core je jádrová komponenta systému ipyflow | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | JSON ukazatel | 3.0.0 | jsonschema | 4.23.0 |
| Specifikace JSON schema | 2023.7.1 | jupyter-events | 0.10.0 | jupyter-lsp | 2.2.0 |
| klient Jupyter | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| JupyterLab widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown:it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| špatné naladění | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| poznámkový blok | 7.3.2 | notebook_shim | 0.2.3 | numpy (knihovna pro numerické výpočty v Pythonu) | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-sémantické-konvence | 0,53b1 | přepíše | 7.4.0 | balení | 24,2 |
| pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | bábovka | 1.0.1 | pexpect | 4.8.0 |
| polštář | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | Pluggy (nástroj pro správu pluginů v Pythonu) | 1.5.0 | prometheus_client | 0.21.0 |
| nástroj "prompt-toolkit" | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| Pytoolconfig | 1.2.6 | knihovna pytz pro zpracování časových zón v Pythonu | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | odkazování | 0.30.2 | požadavky | 2.32.3 |
| rfc3339-validator (validátor formátu RFC 3339) | 0.1.4 | rfc3986-validátor | 0.1.1 | bohatý | 13.9.4 |
| lano | 1.12.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | SciPy | 1.15.1 |
| narozený v moři | 0.13.2 | Send2Trash | 1.8.2 | setuptools (nástroj pro vytváření a distribuci Python projektů) | 74.0.0 |
| Šest | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | sítko na polévku | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | datová hromádka | 0.2.0 | Starlette | 0.46.2 |
| statsmodels | 0.14.4 | strictyaml | 1.7.3 | houževnatost | 9.0.0 |
| dokončeno | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornádo | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| automatické aktualizace | 0,1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (šířka znaků) | 0.2.5 | webcolors | 24.11.1 | webová kódování | 0.5.1 |
| websocket-klient | 1.8.0 | whatthepatch | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | zabalený | 1.17.0 | yapf | 0.40.2 |
| zipový uzávěr | 3.21.0 |
Nainstalované knihovny jazyka R
Knihovny R jsou instalovány ze snímku CRAN z Posit Správce balíčků pořízeného dne 20. 3. 2025.
| Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
|---|---|---|---|---|---|
| šíp | 19.0.1 | žádost o heslo | 1.2.1 | ověřit, že | 0.2.1 |
| zpětné portování | 1.5.0 | báze | 4.4.2 | base64enc | 0,1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | 64bit | 4.6.0-1 |
| bitops | 1.0-9 | objekt blob | 1.2.4 | bootování | 1.3-30 |
| připravovat nápoje | 1.0-10 | elán | 1.1.5 | koště | 1.0.7 |
| bslib | 0.9.0 | kašmír | 1.1.0 | volající | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | cron | 2.3-62 |
| třída | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| hodiny | 0.7.2 | cluster | 2.1.6 | codetools | 0.2-20 |
| barevný prostor | 2.1-1 | commonmark | 1.9.5 | kompilátor | 4.4.2 |
| config | 0.3.2 | konfliktní | 1.2.0 | cpp11 | 0.5.2 |
| pastelka | 1.5.3 | přihlašovací údaje | 2.0.2 | kroucení | 6.4.0 |
| datová tabulka | 1.17.0 | datové sady | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Popis | 1.4.3 | devtools | 2.4.5 |
| schéma | 1.6.5 | diffobj | 0.3.5 | hodnota hash | 0.6.37 |
| dolní osvětlení | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | tři tečky | 0.3.2 | hodnotit | 1.0.3 |
| fanoušci | 1.0.6 | barvy | 2.1.2 | Fastmap (rychlé mapování) | 1.2.0 |
| fontawesome | 0.5.3 | pro kočky | 1.0.0 | foreach | 1.5.2 |
| zahraničí | 0.8–86 | kovárna | 0.2.0 | fs | 1.6.5 |
| budoucnost | 1.34.0 | budoucnost.použít | 1.11.3 | kloktání | 1.5.2 |
| obecné typy | 0.1.4 | Gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globální | 0.18.0 | lepidlo | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| Grafika | 4.4.2 | grDevices | 4.4.2 | mřížka | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | ochranná přilba | 1.4.1 | útočiště | 2.5.4 |
| vyšší | 0.11 | HMS | 1.1.3 | htmlové nástroje | 0.5.8.1 |
| htmlwidgets (interaktivní HTML prvky) | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | identifikátory | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iterátory | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | šťavnatý džus | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.50 | značení | 0.4.3 |
| později | 1.4.1 | mřížka | 0.22-5 | láva | 1.8.1 |
| životní cyklus | 1.0.4 | poslouchej | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | Hmotnost | 7.3-60.0.1 |
| *Matrix* | 1.6-5 | zapamatujte si | 2.0.1 | metody | 4.4.2 |
| mgcv | 1.9-1 | mim | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelář | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet (neuronová síť) | 7.3-19 |
| numDeriv (Numerická derivace) | 2016.8 - 1.1 | OpenSSL | 2.3.3 | rovnoběžný | 4.4.2 |
| paralelně | 1.42.0 | pilíř | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pochvala | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | pokrok | 1.2.3 |
| progressr | 0.15.1 | promisy | 1.3.2 | proto | 1.0.0 |
| proxy | 0,4-27 | p.s. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | "randomForest" | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | schopný reagovat | 0.4.4 |
| reactR | 0.6.1 | čtenář | 2.1.5 | readxl | 1.4.5 |
| recepty | 1.2.0 | odvetný zápas | 2.0.0 | odvetný zápas 2 | 2.1.2 |
| dálková ovládání | 2.5.0 | reprodukovatelný příklad | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| škálování | 1.3.0 | selektor | 0.4-2 | informace o sezení | 1.2.3 |
| obrazec | 1.4.6.1 | lesklý | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | řídké vektory | 0.3.1 |
| prostorový | 7.3-17 | spline | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statistické údaje | 4.4.2 | Stats4 | 4.4.2 |
| řetězce | 1.8.7 | stringr | 1.5.1 | přežití | 3.5-8 |
| frajerský krok | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat (nástroj pro testování) | 3.2.3 | formátování textu | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | změna času | 0.3.0 | datum a čas | 4041.110 |
| tinytex | 0.56 | nářadí | 4.4.2 | tzdb | 0.5.0 |
| ověřovač URL | 1.0.1 | použij tohle | 3.1.0 | utf8 | 1.2.6 |
| pomocné funkce | 4.4.2 | Univerzální jednoznačný identifikátor (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vrrrm | 1.6.5 |
| Waldo | 0.6.1 | hmatový chlup | 0.4.1 | (v případě, že je možné poskytnout smysl slova "withr", by bylo možné ho přeložit) | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| komprimovaný soubor zip | 2.3.2 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.13)
| ID skupiny | Identifikátor artefaktu | Verze |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client (klient Amazon Kinesis) | 1.12.0 |
| com.amazonaws | aws-java-sdk Automatické škálování | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | „aws-java-sdk-cloudsearch“ | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy (Balíček AWS SDK pro Java - CodeDeploy) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfigurace balíčku SDK pro Javu od AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (AWS Java SDK pro Glacier) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue (balíček pro vývoj softwaru v Java od AWS, určený pro Glue služby) | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-strojové učení | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (balíček nástrojů pro přístup k AWS Storage Gateway) | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | podpora AWS Java SDK | 1.12.638 |
| com.amazonaws | knihovny AWS Java SDK SWF | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | datový proud | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Databricks SDK pro Java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | technologie kryo-stínění | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | spolužák | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations (poznámky Jackson) | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.kofein | kofein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | 1.1 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | nativní_systém-java | 1.1 |
| com.github.fommil.netlib | nativní_systém-java | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | netlib-nativní_systém-linux-x86_64 | Verze 1.1 pro místní uživatele |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | Cink | 1.16.0 |
| com.google.errorprone | poznámky_náchylné_k_chybám | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | neúspěšný přístup | 1.0.2 |
| com.google.guava | guave | 33.4.0-jre |
| com.google.guava | poslouchatelnábudoucnost | 9999.0-empty-to-avoid-conflict-with-guava (prázdné, aby se zabránilo konfliktu s guavou) |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (software development kit pro úložiště dat Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (komprimační algoritmus LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers (nástroj pro analýzu dat) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| společné sbírky | společné sbírky | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Nahrávání souborů v Commons | Nahrávání souborů v Commons | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (nástroj pro záznamy) | commons-logging (nástroj pro záznamy) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | vzduchový kompresor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | anotace metrik | 4.2.30 |
| io.dropwizard.metrics | jádro metrik | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | metriky – kontroly stavu | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | Metriky-json | 4.2.30 |
| io.dropwizard.metrics | metriky pro JVM | 4.2.30 |
| io.dropwizard.metrics | metrikové servlety | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | Netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes (softwarová knihovna) | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleklient_obecný | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_sledovatel_společný | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | kolektor | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivace | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API pro transakce | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | nakládačka | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| síť.sněhová vločka | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mravenec | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | Ant launcher | 1.10.11 |
| org.apache.arrow | šipkový formát | 18.2.0 |
| org.apache.arrow | jádro šipkové paměti | 18.2.0 |
| org.apache.arrow | šipka-paměť-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-záplata | 18.2.0 |
| org.apache.arrow | šipkový vektor | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress (softwarová knihovna pro kompresi dat) | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-text (textové nástroje) | 1.13.0 |
| org.apache.kurátor | kurátor-klient | 5.7.1 |
| org.apache.kurátor | kurátorský rámec | 5.7.1 |
| org.apache.kurátor | kurátorovy recepty | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-paměť | 3.0.2 |
| org.apache.derby | fotbalové derby | 10.14.2.0 |
| org.apache.hadoop | běhové prostředí klienta Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc (JDBC ovladač pro Apache Hive) | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | rozhraní pro úložiště Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | plánovač hive-shims | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | břečťan | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | šablona rozložení log4j ve formátu JSON | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | Formát ORC | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orčí podložky | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | poznámky pro publikum | 0.13.0 |
| org.apache.zookeeper | ošetřovatel zvířat v zoo | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | společný kompilátor | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms (framework pro práci s relačními databázemi) | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | pokračování Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | proxy pro službu Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | bezpečnost Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-webová aplikace | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket – běžné | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Vyhledávač zdrojů OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-přebaleno | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject (pokud je to potřeba, přidejte vysvětlení nebo typický český termín v závorce) | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (nástroj pro zpracování požadavků v Java EE) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-jádro | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | společný dres | 2.41 |
| org.glassfish.jersey.core | Jersey-server (aplikační server frameworku Jersey) | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | Hibernate Validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotace | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | testovací rozhraní | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | kompatibilní s scalatestem | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Finální |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Návod
Poznámky k verzím Databricks Runtime, které dosáhly konce podpory (EoS), najdete v Poznámkách k verzím Databricks Runtime s ukončenou podporou. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.