Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Az alábbi kibocsátási megjegyzések az Apache Spark 4.0.0 által működtetett Databricks Runtime 17.2-ről nyújtanak információkat.
Az Azure Databricks 2025 szeptemberében adta ki ezt a verziót.
Új funkciók és fejlesztések
- A LIKE támogatja az UTF8_LCASE összehasonlítási módot
-
st_exteriorringfüggvény mostantól támogatott -
Leküldéses részletek megjelenítése a
EXPLAINSpark felhasználói felületén a távoli vizsgálatokhoz -
Több munkamenet vagy helyi változó deklarálása egyetlen
DECLAREutasításban -
Támogatási
TEMPORARYkulcsszó a metrikanézet létrehozásához - További parancsok támogatása részletes hozzáférés-vezérléssel
-
Adatok szelektív és atomi helyettesítése
INSERT REPLACE USINGésINSERT REPLACE ON(GA) -
Natív I/O
LokiFileSystem.getFileStatushasználata S3-on - Alapértelmezés szerint engedélyezve van az ANSI mód a Pandas API-hoz a Sparkon
-
Az automatikus betöltő módban következtet a
singleVariantColumnpartícióoszlopokra
A LIKE támogatja az UTF8_LCASE kollációt
Az LIKE operátor mostantól támogatja az UTF8_LCASE összehasonlítást, lehetővé téve a kis- és nagybetűkre érzéketlen egyezést.
st_exteriorring függvény mostantól támogatott
Mostantól a st_exteriorring függvény használatával kinyerheti a sokszög külső határát, és vonalzóként visszaadhatja. Lásd: st_exteriorring függvény.
Leküldéses részletek megjelenítése a EXPLAIN Spark felhasználói felületén a távoli vizsgálatokhoz
A EXPLAIN dedikált számításhoz készült RemoteSparkConnectScan Parancs és Spark felhasználói felület mostantól predikátumokat, összesítéseket, csoportosítási záradékokat, korlátokat és mintákat jelenít meg, amelyeket a rendszer leküld a távoli vizsgálatba.
Több munkamenet vagy helyi változó deklarálása egyetlen DECLARE utasításban
A Databricks Runtime 17.2-es és újabb verzióiban egyetlen DECLARE utasításban deklarálhat több azonos típusú és alapértelmezett értékű munkamenetet vagy helyi változót. Lásd DECLARE VARIABLE és BEGIN END összetett utasítás.
Támogatási TEMPORARY kulcsszó a metrikanézet létrehozásához
Most már használhatja a TEMPORARY kulcsszót metrikanézet létrehozásakor. Az ideiglenes metrikanézetek csak az őket létrehozó munkamenetben láthatók, és a munkamenet végén el lesznek vetve. Lásd a(z) CREATE VIEW.
További parancsok támogatása részletes hozzáférés-vezérléssel
A dedikált számítási feladatok részletes hozzáférés-vezérlése mostantól támogatja a parancsokat és FSCK REPAIR TABLE a DESCRIBE DETAIL parancsokat.
Adatok szelektív és atomi helyettesítése INSERT REPLACE USING és INSERT REPLACE ON (GA)
INSERT REPLACE USING és INSERT REPLACE ON mostantól általánosan elérhetőek a Databricks Runtime 17.2-hez. Mindkét SQL-parancs lecseréli a tábla egy részét egy lekérdezés eredményére.
INSERT REPLACE USING akkor cseréli le a sorokat, ha az USING oszlopok egyenlőség esetén egyenlőek.
INSERT REPLACE ON a felhasználók által megadott feltételeknek megfelelő sorokat cseréli le.
Lásd INSERT az SQL nyelvi referenciáit, és írja felül szelektíven az adatokat a Delta Lake használatával.
Natív I/O LokiFileSystem.getFileStatus használata S3-on
LokiFileSystem.getFileStatusMostantól a natív I/O-vermet használja az Amazon S3-forgalomhoz, és ahelyett org.apache.hadoop.fs.FileStatusobjektumokat ad shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus vissza.
Alapértelmezés szerint engedélyezve van az ANSI mód a Pandas API-hoz a Sparkon
ANSI_MODE mostantól alapértelmezés szerint engedélyezve van a Pandas API a Sparkon compute.ansi_mode_support=True, ezzel biztosítva az ANSI-megfelelőségi paritást a natív pandasokkal. A compute.fail_on_ansi_mode beállítás akkor is érvényes, ha compute.ansi_mode_support be van állítva.False
Az Auto Loader singleVariantColumn módban következtet a partíció oszlopaira.
Az Automatikus betöltő mostantól a fájl elérési útjaiból származó partícióoszlopokra következtet, amikor félig strukturált változattípusként tölti be az adatokat a singleVariantColumn beállítás használatával. Korábban a rendszer nem észlelt automatikusan partícióoszlopokat. Lásd az Automatikus betöltő beállításai című témakört.
Viselkedési változások
-
DESCRIBE CONNECTIONA JDBC-kapcsolatok környezeti beállításainak megjelenítése - Az egységes előzmények csonkításának lehetősége a felügyelt táblák migrálása során
- A Delta olvasási beállításainak SQL-szintaxisa streamelési lekérdezésekben
-
Az üres regex és a pozitív korlát eredményének
splitjavítása -
Javítás
url_decodeéstry_url_decodehibakezelés a Photonben - Megosztott végrehajtási környezet a Unity Catalog Python UDTF-jeihez
- Új táblák esetében alapértelmezés szerint engedélyezve van a sorkövetés
- TABLE argumentumok támogatása a Unity Catalog Python UDTF-jeihez
DESCRIBE CONNECTION A JDBC-kapcsolatok környezeti beállításainak megjelenítése
Az Azure Databricks mostantól felhasználói környezetbeállításokat is tartalmaz az DESCRIBE CONNECTION egyéni illesztőprogramokat támogató és elkülönítetten futtatott JDBC-kapcsolatok kimenetében. Más kapcsolattípusok változatlanok maradnak.
Az egységes előzmények csonkításának lehetősége a felügyelt táblák migrálása során
Mostantól az egységes előzményeket is csonkíthatja, ha a táblákat az Uniform/Iceberg paranccsal ALTER TABLE...SET MANAGEDmigrálja. Ez leegyszerűsíti a migrálást, és csökkenti az állásidőt az Uniform manuális letiltásához és újbóli engedélyezéséhez képest.
A Delta olvasási beállításainak SQL-szintaxisa streamelési lekérdezésekben
Most már megadhatja a Delta olvasási beállításait az SQL-alapú streamelési lekérdezésekhez a WITH záradék használatával. Például:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Az üres regex és a pozitív korlát eredményének split javítása
Az Azure Databricks mostantól helyes eredményeket ad vissza, ha üres regexet és pozitív korlátot használ split function . Korábban a függvény helytelenül csonkolt a fennmaradó sztringre ahelyett, hogy az utolsó elembe beleadta volna.
Javítás url_decode és try_url_decode hibakezelés a Photonben
A Photonben, try_url_decode() és url_decode()failOnError = false most a lekérdezés meghiúsulása helyett érvénytelen URL-kódolt sztringeket ad visszaNULL.
Megosztott végrehajtási környezet a Unity Catalog Python UDTF-jeihez
Az Azure Databricks mostantól ugyanazzal a tulajdonossal és Spark-munkamenettel osztja meg a Python által felhasználó által definiált táblafüggvények (UDTF-ek) végrehajtási környezetét. Választható STRICT ISOLATION záradék áll rendelkezésre az UDTF-ek megosztásának letiltására mellékhatásokkal, például környezeti változók módosításával vagy tetszőleges kód végrehajtásával.
Új táblák esetében alapértelmezés szerint engedélyezve van a sorkövetés
Az Azure Databricks mostantól alapértelmezés szerint engedélyezi a sorkövetést az összes újonnan létrehozott Unity Catalog által felügyelt táblához. A meglévő táblákra nem lesz hatással, és továbbra is megőrzik az aktuális sorkövetési beállításokat.
TABLE argumentumok támogatása a Unity Catalog Python UDTF-jeihez
A Unity Catalog Python UDTF-jei támogatják TABLE az argumentumokat, így a függvények teljes táblákat fogadnak el bemeneti paraméterekként, így összetettebb adatátalakításokat és összesítéseket tesz lehetővé strukturált adathalmazokon. Lásd a Python felhasználó által definiált táblafüggvényeit (UDTF-eket) a Unity Catalogban. (Visszaportolva a 17.3 LTS-ből).
Könyvtárfrissítések
Frissített Python-kódtárak:
Ebben a verzióban nem frissítettek Python-kódtárakat.
Frissített R-kódtárak:
Ebben a verzióban nem frissítettek R-kódtárakat.
Frissített Java-kódtárak:
- io.delta.delta-sharing-client_2.13 1.3.3 és 1.3.5 között
Apache Spark
A Databricks Runtime 17.2 tartalmazza az Apache Spark 4.0.0-t. Ez a kiadás tartalmazza az előző verzióban szereplő összes Spark-javítást és fejlesztést, valamint a következőket:
-
SPARK-53183 Java használata ahelyett, hogy
Files.readStringo.a.s.sql.catalyst.util.fileToString - SPARK-51817 AnsiConfig-mezők ismételt bevezetése a messageParametersben CAST_INVALID_INPUT és CAST_OVERFLOW
- SPARK-53124 Felesleges mezők metszése a JsonTuple-ból
- SPARK-53106 Sémafejlődési tesztek hozzáadása TWS Scala Spark Connect-csomagokhoz
-
SPARK-53201 Használat
SparkFileUtils.contentEqualshelyettFiles.equal - SPARK-53308 Ne távolítsa el azokat az aliasokat a RemoveRedundantAliasesben, amelyek ismétlődő elemeket okoznak
-
SPARK-53241 Támogatás a következőben
createArray:SparkCollectionUtils -
SPARK-53239 Fejlesztés
MapSortésSortArrayteljesítmény aparallelSort - SPARK-53184 Elolvadás() javítása, ha az értékoszlopok sztringeket és számokat kevernek
- SPARK-53144 CreateViewCommand létrehozása a SparkConnectPlanner mellékhatásának ingyenessé tétele
- SPARK-53303 Használja az üres állapotkódolót, ha a kezdeti állapot nincs megadva a TWS-ben
- SPARK-52917 Olvasási támogatás a bináris xml formátumú oda-vissza út engedélyezéséhez
- SPARK-53110 A time_trunc függvény implementálása a PySparkban
- SPARK-53107 A time_trunc függvény implementálása a Scalában
- SPARK-52146 Ciklikus függvényhivatkozások észlelése AZ SQL UDF-ekben
- SPARK-52469 A JEP 223 API használata Java-verzió feldolgozásához
- SPARK-53094 A KOCKA javítása összesítő HAVING záradékokkal
- SPARK-51874 TypedConfigBuilder hozzáadása Scala enumeráláshoz
- SPARK-53287 ANSI migrálási útmutató hozzáadása
- SPARK-43100 A leküldéses shuffle metrikákat megfelelően kell deszerializálni
- SPARK-53045 A DESCRIBE EXTENDED-nek ellenállónak kell lennie a sérült metaadatokkal szemben
-
SPARK-53114 Támogatás a következőben
join:JavaUtils - SPARK-53297 StreamingTable Deklaratív folyamatok API-dokumentációja javítása
- SPARK-53181 Dokumentumtesztek engedélyezése az ANSI-ben
- SPARK-52482 A kivételkezelés javítása bizonyos sérült zstd-fájlok olvasásához
-
SPARK-52990 Támogat
StringSubstitutor - SPARK-51874 TypedConfigBuilder hozzáadása Scala enumeráláshoz
-
SPARK-53169 Távolítsa el a"
Set the logger level of File Appender to"-hez kapcsolódó megjegyzéseket alog4j2.properties -
SPARK-53080 Támogatás
cleanDirectorya következőben:SparkFileUtilsJavaUtils - SPARK-53045 A DESCRIBE EXTENDED-nek ellenállónak kell lennie a sérült metaadatokkal szemben
-
SPARK-53000 Átnevezés
StringUtils.scalaaStringConcat.scalamodulbansql/api - SPARK-52952 PySpark UDF-típus coercion dev szkript hozzáadása
- SPARK-52998 Több változó a deklarálva
- SPARK-51817 AnsiConfig-mezők ismételt bevezetése a messageParametersben CAST_INVALID_INPUT és CAST_OVERFLOW
- SPARK-52820 Teljes tervek rögzítése aranyfájlokban
- SPARK-53274 A JDBCScanBuilder bal és jobb oldali csatlakoztatásának támogatása
- SPARK-52110 SQL-szintaxis támogatása folyamatokhoz
- SPARK-52950 ANSI mód engedélyezése a DataSourceV2StrategySuite-ban
- SPARK-52947 Lemezkép elérési útja a deklaratív folyamatok programozási útmutatójában
- SPARK-52592 Ps létrehozásának támogatása. Sorozat egy ps.-ből. Sorozat
- SPARK-53301 A Pandas UDF és a Arrow UDF típustippjeinek megkülönböztetése
- SPARK-53146 MergeIntoTable létrehozása a SparkConnectPlanner mellékhatásának ingyenessé tétele
-
SPARK-53166 Használat
SparkExitCode.EXIT_FAILUREobjektumbanSparkPipelines - SPARK-53288 A globális streamelési korláttal kapcsolatos helyességi hiba kijavítása
- SPARK-52394 Az automatikus javítási osztás nullával történő hiba kijavítása ANSI módban
- SPARK-51555 A time_diff() függvény hozzáadása
- SPARK-52948 Test_np_spark_compat_frame engedélyezése az ANSI-ben
- SPARK-53134 A nem használt ANSI-importok eltávolítása tesztekben
-
SPARK-52593 Kerülje a CAST_INVALID_INPUT
MultiIndex.to_seriesésSeries.dotDataFrame.dotANSI módban - SPARK-53291 Értékoszlop null értékűségének javítása
- SPARK-53097 A WriteOperationV2 szabaddá tétele a SparkConnectPlanner mellékhatásában
- SPARK-53305 TimeType támogatása a createDataFrame-ben
-
SPARK-52914 A naplók begördülésének támogatása
On-Demand Log LoadingHistory Server - SPARK-33538 In/NOT predikátumok közvetlen leküldése a Hive metaadattárba
-
SPARK-52849 Hozzáadás
stringifyExceptionao.a.s.util.Utils -
SPARK-52771 A float32 típusú szélesítés javítása a következőben:
truediv/floordiv - SPARK-52502 A szálszám áttekintése
- SPARK-52788 Bináris érték bináris érték XML-fájllá konvertálásával kapcsolatos hiba kijavítása
-
SPARK-53123 Támogatás a következőben
getRootCause:SparkErrorUtils -
SPARK-53129 Az
SparkShellimportálásjava.net._javítása alapértelmezés szerint -
SPARK-53061 Támogatás a következőben
copyFileToDirectory:SparkFileUtils - SPARK-52683 Az ExternalCatalog alterTableSchema támogatása
-
SPARK-52871 Egyesítés
o.a.s.sql.catalyst.util.SparkStringUtilso.a.s.util.SparkStringUtils -
SPARK-52817 Kifejezés teljesítményének javítása
Like - SPARK-52545 A dupla idézőjeles menekülés szabványosítása az SQL-specifikációnak megfelelően
-
SPARK-52711 A float32 típusú szélesítés javítása az
mul/rmulANSI alatt - SPARK-52615 A File.mkdirs cseréje Utils.createDirectory-ra
- SPARK-52381 JsonProtocol: Csak a SparkListenerEvent alosztályainak elfogadása
- SPARK-52613 A teljes stacktrace nyomtatásának visszaállítása, amikor a HBase/Hive DelegationTokenProvider kivételt talált
- SPARK-52651 Felhasználó által definiált típus kezelése a beágyazott ColumnVectorban
- SPARK-52611 Az SQLConf-verzió javítása az excludeSubqueryRefsFromRemoveRedundantAliases...
- SPARK-52552 Törlési vektor törlésére vonatkozó CHECK kényszer kikényszerítésének kihagyása
-
SPARK-52587 spark-shell 2.13 támogatási
-i-Iparaméter - SPARK-52492 Az InMemoryRelation.convertToColumnarIfPossible testreszabhatóvá tétele
- SPARK-52451 A WriteOperation ingyenessé tétele a SparkConnectPlanner mellékhatásában
- SPARK-53272 SPJ-leküldéses logika újrabontása a BatchScanExecből
-
SPARK-53071 Támogatás a következőben
copyFile:SparkFileUtils - SPARK-51415 Az időtípus támogatása make_timestamp() szerint
- SPARK-51554 A time_trunc() függvény hozzáadása
- SPARK-52426 Stdout/stderr naplózási rendszerbe való átirányításának támogatása
- SPARK-51834 A táblamegkötések kezelésének támogatása a végpontok között
- SPARK-53063 Új API-k implementálása és meghívása a FileCommitProtocolban az elavult helyett
- A SPARK-52546 ellenőrzi, hogy a sparkContext leállt-e a catch code block futtatásakor a végrehajtás() során, ellenkező esetben helytelen állapotot ad vissza.
-
SPARK-53023 Függőség eltávolítása
commons-ioa modulbólsql/api - SPARK-52396 Az összetevő gyökérkönyvtárának tmpdirt kell használnia
-
SPARK-53131 Az
SparkShellimportálásjava.nio.file._javítása alapértelmezés szerint - SPARK-42322 Név hozzárendelése to_LEGACY_ERROR_TEMP_2235
- SPARK-51834 A táblamegkötések kezelésének támogatása a végpontok között
- SPARK-52484 A child.supportsColumnar-állítás kihagyása az illesztőprogram oldaláról a ColumnarToRowExecben
- SPARK-52384 A JDBC-beállítások nem érzéketlenek a Connect hiba kijavítása
- SPARK-52034 Gyakori metódusok hozzáadása a SparkOperation-tulajdonságban a thriftserver-műveletekhez
-
SPARK-53031 Támogatás a következőben
getFile:SparkFileUtils - SPARK-52976 Kijavítottuk, hogy a Python UDF nem fogadja el az összeválogatott sztringet bemeneti/visszatérési típusként (17.x)
- SPARK-52943 Arrow_cast engedélyezése az összes pandas UDF-eval-típushoz
- SPARK-53263 A TimeType támogatása a df.toArrow-ban
- SPARK-53141 API-k hozzáadása a többletmemória méretének lekéréséhez és a memória kieséséhez az erőforrásprofilból
- SPARK-53259 A INVALID_UDF_EVAL_TYPE üzenetének javítása
- SPARK-53167 A Spark launcher isRemote is tiszteletben tartja a tulajdonságok fájl
-
SPARK-53165 Hozzáad
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Az UTF8String ismétlésének javítása
-
SPARK-53170
SparkUserAppExceptionA paraméter továbbfejlesztésecause - SPARK-52989 Explicit close() API hozzáadása a State Store iterátoraihoz
- SPARK-53074 Kerülje a részleges fürtözést az SPJ-ben a gyermek szükséges eloszlásának kielégítése érdekében
- SPARK-52252 A ScalaUDF-kódolókat az alküldetésben fel kell oldani
- SPARK-53244 A nézet létrehozásakor ne tárolja a kettős futtatású és feltételes módú konföderációkat
- SPARK-53192 Adatforrás gyorsítótárazása a Spark Connect-csomag gyorsítótárában
- SPARK-51813 Nenullable DefaultCachedBatchKryoSerializer hozzáadása a null propagálás elkerülése érdekében a DefaultCachedBatch serde fájlban
- SPARK-52904 "[SC-202233][python] Engedélyezze a convertToArrowArrayS...
-
SPARK-53253 A regiszter UDF típusának javítása
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 A támogatott eval-típusok felsorolása a nyílcsomópontokban
-
SPARK-53130 Az csoportosított sztringtípusok viselkedésének javítása
toJson -
SPARK-53003 Támogatás a következőben
strip:SparkStringUtils - SPARK-51902 OSS szinkronizálása: Ellenőrzési kényszer kényszerítése a táblázat beszúrásakor
- SPARK-52047 PySparkValueError emelése nem támogatott diagramtípusokhoz
-
SPARK-53004 Támogatás a következőben
abbreviate:SparkStringUtils - SPARK-53066 A DSv2 Join pushdown kimenetének javítása EXPLAIN
- SPARK-30848 ProductHash eltávolítása a TreeNode-ból
-
SPARK-53046 Java használata ahelyett, hogy
readAllBytesIOUtils.toByteArray -
SPARK-53206 Használat
SparkFileUtils.movehelyettcom.google.common.io.Files.move - SPARK-53066 A DSv2 Join pushdown kimenetének javítása EXPLAIN
- SPARK-53069 Helytelen állapottároló-metrikák javítása virtuális oszlopcsaládokkal
- SPARK-52904 A convertToArrowArraySafely engedélyezése alapértelmezés szerint [17.x]
- SPARK-52821 add int-DecimalType> pyspark udf return type coercion
-
SPARK-51562 Függvény hozzáadása
time - SPARK-52971 Inaktív Python-feldolgozói üzenetsor méretének korlátozása
-
SPARK-53057 Támogatás
sizeOfa következőben:SparkFileUtilsJavaUtils - SPARK-53040 Önhivatkozások tiltása a legfelső CT-kben rekurzív CT-kben
- SPARK-53104 Ansi_mode_context bemutatása az API-hívásonkénti több konfigurációs ellenőrzés elkerüléséhez
-
SPARK-47547 V2 hozzáadása
BloomFilterés használata alapértelmezettként -
SPARK-53098
DeduplicateRelationsnem kell újraképesíteni a kifejezéseket, ha a régiExprIdmég létezik a kimenetben -
SPARK-53049 Támogatás a következőben
toString:SparkStreamUtils -
SPARK-53062 Támogatás
deleteQuietlya következőben:SparkFileUtilsJavaUtils -
SPARK-53070 Támogatás a következőben
is(Not)?Empty:SparkCollectionUtils - SPARK-53020 A JPMS-argeknek a nem SparkSubmit folyamatra is alkalmazniuk kell
- SPARK-52968 További állapottároló-metrikák kibocsátása
- SPARK-52975 Mezőnevek egyszerűsítése a pushdown join SQL-ben
- SPARK-52926 SqlMetric hozzáadva a távoli séma beolvasási idejének időtartamához.
- SPARK-53059 A nyíl UDF-nek nem kell a pandastól függenie
-
SPARK-52646 Ne CAST_INVALID_INPUT
__eq__ANSI módban -
SPARK-52622 Ne CAST_INVALID_INPUT
DataFrame.meltANSI módban - SPARK-52985 TypeError emelése pandas numpy operandushoz összehasonlító operátorokban
-
SPARK-52580 Ne CAST_INVALID_INPUT
replaceANSI módban - SPARK-52549 Rekurzív CTE-önhivatkozások letiltása ablakfüggvényekből és belső rendezésekből
-
SPARK-52895 Ne adjon hozzá ismétlődő elemeket a
resolveExprsWithAggregate - SPARK-50748 Versenyállapot-probléma kijavítása, amely akkor fordul elő, ha a műveletek megszakadnak
- SPARK-52737 Leküldéses predikátum és alkalmazások száma az FsHistoryProviderbe alkalmazások listázásakor
- SPARK-53018 A ArrowStreamArrowUDFSerializernek tiszteletben kell tartania az argumentumot arrow_cast
- SPARK-53013 A nyíloptimalizált Python UDTF javítása, amely nem ad vissza sorokat az oldalirányú illesztéskor
- SPARK-51834 OSS szinkronizálása: a végpontok közötti táblamegkötés támogatása alter add/drop constraint
- SPARK-52921 Adja meg az UnionExec kimenetpartitioning elemét a gyermek operátorokkal azonos kimeneti partitoninghoz
- SPARK-52908 Az iterátor változójának neve ütközik az AST gyökeréhez vezető elérési úton lévő címkék nevével
- SPARK-52954 Arrow UDF támogatás visszatérési típus kényszerítéséhez
- SPARK-52925 Helyes hibaüzenet visszaadása rCTE-kben lévő horgony-önhivatkozásokhoz
- SPARK-52889 A current_time függvény implementálása a PySparkban
- SPARK-52675 A függő ML-kezelők megszakítása a tesztekben
- SPARK-52959 UDT támogatása a Nyíloptimalizált Python UDTF-ben
- SPARK-52962 A BroadcastExchangeExec nem állíthatja alaphelyzetbe a metrikákat
- SPARK-52956 Alias-metaadatok megőrzése projektek összecsukásakor
- SPARK-52890 Az to_time és try_to_time függvények implementálása a PySparkban
- SPARK-52888 A make_time függvény implementálása a PySparkban
- SPARK-52892 Az óra, a perc és a második függvény támogatási ideje a PySparkban
- SPARK-52837 A TimeType támogatása a pysparkban
- SPARK-52023 Adatsérülés/segfault visszatérési lehetőség[Termék] javítása a udaf-ból
- SPARK-52955 A WindowResolution.resolveOrder és a WindowResolution.resolveFrame visszatérési típusának módosítása a WindowExpression értékre
- SPARK-52166 PipelineEvents támogatásának hozzáadása
- SPARK-51834 Javítás: érvényes eltávolítása a toDDL-ből
- SPARK-52735 Az SQL UDF-ek hiányzó hibafeltételeinek javítása
- SPARK-51834 Az OSS-támogatás szinkronizálása a végpontok közötti létrehozási/cseretáblázatok korlátozásával
- SPARK-51834 OsS-frissítés szinkronizálása – A ResolvedIdentifier alkalmazás nélküli hívásai
- SPARK-52929 MySQL- és SQLServer-összekötő támogatása a DSv2 Join leküldéses leküldéséhez
- SPARK-52448 Egyszerűsített Struct Expression.Literál hozzáadása
- SPARK-52882 A current_time függvény implementálása a Scalában
- SPARK-52905 Nyíl UDF az ablakhoz
-
SPARK-52876 Elírás
bufferjavítása a következőhöz:bodyChunkFetchSuccess.toString - SPARK-52883 A to_time és try_to_time függvények implementálása a Scalában
-
SPARK-52751 Ne ellenőrizze lelkesen az oszlop nevét a
dataframe['col_name'] - SPARK-52791 Hiba kijavítása null első elemet tartalmazó UDT-ből való következtetéskor
-
SPARK-52686
Unioncsak akkor kell feloldani, ha nincsenek ismétlődések - SPARK-52881 A make_time függvény implementálása a Scalában
- SPARK-52919 A DSv2 Join pushdown javítása a korábban aliasált oszlop használatához
-
SPARK-52866 Támogatás hozzáadása a következőhöz:
try_to_date - SPARK-52846 Adjon hozzá egy metrikát a JDBCRDD-ben, hogy mennyi ideig tart az eredményhalmaz lekérése
- SPARK-52859 SparkSystemUtils-tulajdonság hozzáadása
- SPARK-52823 DSv2 Csatlakozás leküldéses leküldéses támogatása oracle-összekötőhöz
- SPARK-52165 Buildállványok beállítása a folyamatprojekthez
- SPARK-52869 FrameLessOffsetWindowFunction-ellenőrzés hozzáadása a ResolvedWindowExpression ellenőrzéséhez az egylépéses elemzőben való újrahasználathoz
- SPARK-52885 Az óra, a perc és a második függvény implementálása a Scalában az IDŐ típushoz
- SPARK-52903 Nem legfelső szintű aliasok vágása az LCA felbontása előtt
- SPARK-52832 A JDBC dialektusazonosító idézőjelének javítása
-
SPARK-52870 Változónevek helyes idézőjele az utasításban
FOR -
SPARK-52859 Tulajdonság hozzáadása
SparkSystemUtils -
SPARK-52900 Használat a következőben
SparkStringUtils.stringToSeq:FsHistoryProvider - SPARK-52809 Ne tartsa meg az olvasó- és iterátorhivatkozásokat a feladatvégző figyelőkben lévő összes partícióhoz a metrikafrissítéshez
-
SPARK-52815 Fejlesztés
SparkClassUtilsa támogatáshozgetAllInterfaces - SPARK-52795 RunId belefoglalása az állapottár naplóiba
- SPARK-52779 A TimeType-literál támogatása a Connectben
- SPARK-52899 A QueryExecutionErrorsSuite teszt javítása a H2Dialect visszahelyezéséhez
-
SPARK-52862 A következő nullabilitási ellenőrzésének javítása:
Decimal('NaN') - SPARK-52214 Nyíl UDF aggregációhoz
- SPARK-52787 Streamelési végrehajtási dir átrendezése a futtatókörnyezet és az ellenőrzőpont területei körül
- SPARK-51564 TIME-elemzés 12 órás formátumban
-
SPARK-52859 Tulajdonság hozzáadása
SparkSystemUtils -
SPARK-51562 Függvény hozzáadása
time - SPARK-52850 Átalakítások meghívásának kihagyása identitásfüggvény esetén
- SPARK-52863 Régi pandas-verziók kódútvonalainak törlése
- SPARK-52516 A ParquetPartitionReaderFactory következő fájlra lépése után ne tartsa lenyomva az előző iterátorhivatkozást
-
SPARK-52848 Kerülje a leadást a
DoubleTIME/TIMESTAMP tizedesjelre történő leadásához -
SPARK-52770 Támogatási
TIMEtípus a connect proto-ban - SPARK-52842 Új funkciók és hibajavítások az egyátjárós elemzőhöz
- SPARK-52620 AZ IDŐ DECIMális értékre történő kiosztásának támogatása
- SPARK-52783 A windowFunction ellenőrzési logikájának újrabontása a checkAnalysisből az egyátmenetes elemzőben való újrahasználathoz
- SPARK-51695 OsS create/replace/alter table szinkronizálása egyedi kényszerhez a DSv2-n keresztül
- SPARK-51695 OSS-es esési kényszer szinkronizálása a DSv2-n keresztül
- SPARK-52824 CheckpointFileManager hibabesorolás
- SPARK-52829 A LocalDataToArrowConversion.convert javítása az üres sorok megfelelő kezeléséhez
- SPARK-52811 Az ArrowTableToRowsConversion.convert optimalizálása a teljesítmény javítása érdekében
- SPARK-52796 A LocalDataToArrowConversion.convert optimalizálása a teljesítmény javítása érdekében
- SPARK-51695 Az OSS alter table add Constraint parser changes (OsS Alter Table Add Constraint parser changes) (OsS Alter Table Add Constraint Parser changes)
- SPARK-52619 TimeType átalakítása IntegralType-vá
- SPARK-52187 Csatlakozás leküldéses leküldésének bemutatása a DSv2-hez
- SPARK-52782 Null értéket ad vissza a +/- dátum/idő értékről a NULL értékkel
- SPARK-51695 Elemzési módosítások bevezetése a táblakorlátozásokhoz (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationspozitívnak kell lennie - SPARK-52776 Ne ossza fel a comm mezőt a ProcfsMetricsGetterben
-
SPARK-52793 Támogatás
isUnixitt:o.a.s.util.Utils -
SPARK-52792 Függőség eltávolítása
commons-lang3anetwork-common -
SPARK-52797 Használat
Utils.isWindowsahelyett, hogy újraértékeli aPythonWorkerFactory - SPARK-52784 TimeZoneAware-öntés hozzáadása a WindowFrameTypeCoercion.createBoundaryCast alkalmazásban
- SPARK-52725 Az erőforrásprofil-kezelő inicializálásának késleltetése a beépülő modul betöltéséig
- SPARK-52565 Rendezési sorrend más kifejezései előtt a sorrendi feloldás kényszerítése
- SPARK-52740 NPE javítása a HDFSBackedStateStoreProviderben a StateStoreConf.sqlConf elérésekor, ha az >ellenőrzőpont formátumának verziója =2
- SPARK-52673 Grpc RetryInfo kezelés hozzáadása a Spark Connect újrapróbálkozési szabályzataihoz
- SPARK-52724 A szórásos illesztés OOM-hibakezelésének javítása SHUFFLE_MERGE tipptámogatással
- SPARK-52781 Dtyeps-elírás javítása a internal.py
- SPARK-52730 Mögöttes illesztőprogram és adatbázisverzió tárolása a JDBCRDD-ben
- SPARK-52727 Ablakfelbontás újrabontása az egyáteresztő elemzőben való újbóli használat érdekében
- SPARK-52695 Felhasználó által definiált típus írási támogatása xml-fájlformátumhoz
- SPARK-52722 Elavult JdbcRDD-osztály
- SPARK-51695 Elemzési módosítások bevezetése a táblakorlátozásokhoz (CHECK, PK, FK)
- SPARK-52763 Támogatási IDŐ kivonása
- SPARK-52768 A pandas/series.py "áthelyezésének" javítása
- SPARK-52730 Mögöttes illesztőprogram és adatbázisverzió tárolása a JDBCRDD-ben
-
SPARK-52694 API hozzáadása
o.a.s.sql.Encoders#udt -
SPARK-52720 A float32 típusú szélesítés javítása az
add/raddANSI alatt - SPARK-52723 Kiszolgálóoldali oszlop nevének ellenőrzése
-
SPARK-52760 A float32 típusú szélesítés javítása az
sub/rsubANSI alatt -
SPARK-52738 A TIME típus UDAF-sel való összesítésének támogatása, ha a mögöttes puffer egy
UnsafeRow - SPARK-52704 Az SQLConf és a fájlformátum beállításai közötti együttműködés egyszerűsítése a TextBasedFileFormatsban
- SPARK-52706 Inkonzisztenciák és újrabontási primitív típusok javítása az elemzőben
-
SPARK-52718 A float32 típusú szélesítés javítása az
rmod/modANSI alatt - SPARK-52736 A pyspark/pandas/generic.py
Az Azure Databricks ODBC/JDBC-illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Telepített Python-kódtárak
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| széljegyzetes típusok | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | nyíl | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | Aszinkron-LRU | 2.0.4 | attribútumok | 24.3.0 |
| automatikus parancs | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web (web kezelési modul az Azure-hoz) | 8.0.0 |
| Azure-tároló-blob | 12.23.0 | Azure-tároló-fájl-adattó (Azure Storage File Data Lake) | 12.17.0 | Bábel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | fekete | 24.10.0 |
| fehérítő | 6.2.0 | villogó | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | Gyorstár-eszközök | 5.5.1 | tanúsítvány | 2025.01.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | karakterkészlet-normalizáló (charset-normalizer) | 3.3.2 |
| kattintás | 8.1.7 | Cloudpickle | 3.0.0 | kommunikáció | 0.2.1 |
| ContourPy | 1.3.1 | kriptográfia | 43.0.3 | biciklista | 0.11.0 |
| Cython | 3.0.12 | databricks SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy hibakereső eszköz | 1.8.11 | dekorátor | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | docstring Markdown-formátummá alakítása | 0.11 |
| Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | fájlzárolás | 3.18.0 | betűtípusok | 4.55.3 |
| FQDN | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | Google-autentikáció | 2.40.0 |
| google-cloud-core (Google felhő mag) | 2.4.3 | Google felhőtárhely | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (Google újraindítható média) | 2.7.2 | googleapis-közös-protokollok | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | Idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | ragoz | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| izodátum | 0.6.1 | izoduráció | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-specifikációk | 2023.07.01. | jupyter-események | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_kliens | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server (Jupyter kiszolgáló) | 2.14.1 |
| jupyter szerver terminálok | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| JupyterLab-widgetek | 1.0.0 | jupyterlab_szerver | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| félhangol | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-kiterjesztések | 1.3.1 |
| mypy kiterjesztések | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| jegyzetfüzet | 7.3.2 | notebook-shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-szemantikai-konvenciók | 0,53b1 | Felülbírálja | 7.4.0 | csomagolás | 24,2 |
| Pandák | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| útvonal specifikáció (pathspec) | 0.10.3 | bűnbak | 1.0.1 | pexpect | 4.8.0 |
| párna | 11.1.0 | pipa | 25.0.1 | Platformdirs | 3.10.0 |
| ábrázolás | 5.24.1 | csatlakozós | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit: parancssori eszközkészlet | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser (C és C++ fájlok feldolgozására szolgáló parser) | 2.21 |
| pydantic (egy Python könyvtár) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes (egy program vagy eszköz neve) | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc (Python ODBC interfész) | 5.2.0 | pyparsing (egy Python könyvtár a szövegelemzéshez) | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | Szoftver verzió: 2.9.0.post0 |
| Python JSON naplózó | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytool konfiguráció | 1.2.6 | pytz (egy Python könyvtár az időzóna számításokhoz) | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Hivatkozás | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator | 0.1.4 | RFC3986-érvényesítő | 0.1.1 | gazdag | 13.9.4 |
| kötél | 1.12.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn (egy Python gépi tanulási könyvtár) | 1.6.1 | scipy (tudományos és műszaki számítási Python könyvtár) | 1.15.1 |
| tengerben született | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| hat | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| rendezésikontainers | 2.4.0 | levesszűrő | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | halmaz adatok | 0.2.0 | Starlette | 0.46.2 |
| statsmodels - statisztikai szoftvercsomag | 0.14.4 | strictyaml | 1.7.3 | Kitartás | 9.0.0 |
| befejezett | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| jellemzők | 5.14.3 | típusőrző | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions (gépelési kiterjesztések) | 4.12.2 | tzdata | 2024.1 | ujson (JSON-kezelő könyvtár a Pythonban) | 5.10.0 |
| felügyelet nélküli frissítések | 0,1 | uri-sablon | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webszínek | 24.11.1 | webkódolások | 0.5.1 |
| websocket-klient | 1.8.0 | Mi a javítás? | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | becsomagolva | 1.17.0 | yapf | 0.40.2 |
| cipzár | 3.21.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2025-03-20-án.
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| nyíl | 19.0.1 | jelszókérés | 1.2.1 | Meggyőződj arról, hogy | 0.2.1 |
| háttérportolások | 1.5.0 | alapkép | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | boot - rendszerindítás | 1.3-30 |
| sört főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.7 |
| bslib | 0.9.0 | gyorsítótár | 1.1.0 | hívásindító | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | kronométer | 2.3-62 |
| osztály | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| óra | 0.7.2 | fürt | 2.1.6 | kódolási eszközök | 0.2-20 |
| színterület | 2.1-1 | commonmark | 1.9.5 | fordítóprogram | 4.4.2 |
| config | 0.3.2 | ellentmondásos | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | azonosító adatok | 2.0.2 | göndörít | 6.4.0 |
| adat.táblázat | 1.17.0 | adatkészletek | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Leírás | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | kivonat | 0.6.37 |
| lefelé irányított világítású | 0.4.4 | dplyr (adatmanipulációs csomag az R programozási nyelvhez) | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | három pont | 0.3.2 | kiértékel | 1.0.3 |
| rajongók | 1.0.6 | színek | 2.1.2 | gyorstérkép | 1.2.0 |
| fontawesome | 0.5.3 | elveszettek | 1.0.0 | foreach | 1.5.2 |
| külföldi | 0.8-86 | kovácsol | 0.2.0 | fs | 1.6.5 |
| jövő | 1.34.0 | jövő.alkalmaz | 1.11.3 | gargarizál | 1.5.2 |
| általánosítás | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globálisok | 0.18.0 | ragasztó | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower-hegység | 1.0.2 |
| grafika | 4.4.2 | grDevices | 4.4.2 | rács | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | védősisak | 1.4.1 | kikötő | 2.5.4 |
| magasabb | 0.11 | HMS | 1.1.3 | HTML-eszközök | 0.5.8.1 |
| HTML-widgetek | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | Azonosítók | 1.0.1 | ini | 0.3.1 |
| iPred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | címkézés | 0.4.3 |
| később | 1.4.1 | rácsszerkezet | 0.22-5 | láva | 1.8.1 |
| életciklus | 1.0.4 | hallgatás | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | Tömeg | 7.3-60.0.1 |
| Mátrix | 1.6-5 | memorizálás | 2.0.1 | módszerek | 4.4.2 |
| mgcv | 1.9-1 | pantomimázás | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| „numDeriv” | 2016. augusztus - 1.1 | openssl (nyílt forráskódú titkosító szoftver) | 2.3.3 | párhuzamos | 4.4.2 |
| párhuzamosan | 1.42.0 | pillér | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | csomag betöltése | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | dicséret | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | haladás | 1.2.3 |
| progressr | 0.15.1 | ígéretek | 1.3.2 | Próto | 1.0.0 |
| közvetít | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | véletlen erdő (randomForest) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer (egy szoftvercsomag neve) | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reakcióképes | 0.4.4 |
| reactR | 0.6.1 | Readr | 2.1.5 | readxl (Excel fájlokat olvasó programcsomag) | 1.4.5 |
| Receptek | 1.2.0 | Visszavágó | 2.0.0 | visszavágó2 | 2.1.2 |
| Távvezérlők | 2.5.0 | megismételhető példa | 2.1.1 | újraformázás2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29. | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| változatok | 2.1.2 | Szüret | 1.0.4 | Sass | 0.4.9 |
| mérlegek | 1.3.0 | szelekciós eszköz | 0.4-2 | munkamenet-információk | 1.2.3 |
| alakzat | 1.4.6.1 | Fényes | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| térbeli | 7.3-17 | splinek | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statisztika | 4.4.2 | statisztikák4 | 4.4.2 |
| string | 1.8.7 | stringr | 1.5.1 | túlélés | 3.5-8 |
| magabiztosság | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| Tcl/Tk programozási nyelv és eszközkészlet. | 4.4.2 | testthat | 3.2.3 | szövegformázás | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | időváltás | 0.3.0 | idődátum | 4041.110 |
| tinytex | 0.56 | eszközök | 4.4.2 | tzdb | 0.5.0 |
| URL-ellenőrző | 1.0.1 | ezt használd | 3.1.0 | utf8 | 1.2.6 |
| segédprogramok | 4.4.2 | univerzálisan egyedi azonosító (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | bruum | 1.6.5 |
| Waldo | 0.6.1 | szőrszál | 0.4.1 | valamivel | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML (adat-szerializációs formátum) | 2.3.10 | zeallot | 0.1.0 |
| zip fájl | 2.3.2 |
Telepített Java- és Scala-kódtárak (Scala 2.13 klaszterverzió)
| Csoportazonosító | A tárgy azonosítója | verzió |
|---|---|---|
| ANTLR (Egy másik eszköz a nyelvi felismeréshez) | ANTLR (Egy másik eszköz a nyelvi felismeréshez) | 2.7.7 |
| com.amazonaws | Amazon Kinesis kliens | 1.12.0 |
| com.amazonaws | AWS Java SDK - Automatikus Skálázás | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (AWS Java SDK konfiguráció) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS Java SDK importexport modul | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms (Amazon Web Services Java SDK KMS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-gépi tanulás | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Támogatás | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf könyvtárak | 1.11.22 |
| com.amazonaws | aws-java-sdk-munkaterületek | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | adatfolyam | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java (Databricks Java SDK) | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-árnyékolt | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | osztálytárs | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotációk | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (adatformátum CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson adattípus - Joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1-őslakosok |
| com.github.fommil.netlib | natív rendszer-java | 1.1 |
| com.github.fommil.netlib | natív rendszer-java | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-natív_rendszer-linux-x86_64 | 1.1-őslakosok |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | hibára hajlamos annotációk | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | hozzáférési hiba | 1.0.2 |
| com.google.guava | guáva | 33.4.0-jre |
| com.google.guava | hallgatható jövő | 9999.0-üres-az-ütközés-elkerülése-miatt-guava-val |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profilkészítő | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | forráskód_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (kompressziós algoritmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl (JAXB implementáció) | 2.2.11 |
| com.tdunning | JSON formátum | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lencsék_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-elemzők | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| „commons-codec” | „commons-codec” | 1.17.2 |
| commons-collections (közös gyűjtemények könyvtár) | commons-collections (közös gyűjtemények könyvtár) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-fájlfeltöltés | Commons-fájlfeltöltés | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| közös naplózás | közös naplózás | 1.1.3 |
| közös medence | közös medence | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | légkompresszor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | metrikák annotációja | 4.2.30 |
| io.dropwizard.metrics | metrikai magrész | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | mutatók-egészségügyi ellenőrzések | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json (metrikák JSON formátumban) | 4.2.30 |
| io.dropwizard.metrics | JVM-metrikák | 4.2.30 |
| io.dropwizard.metrics | Metrikai szervletek | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all csomag | 4.1.118.Final |
| io.netty | Netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | Netty HTTP kodek | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-zokni | 4.1.118.Final |
| io.netty | netty-közös | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | Verziószám: 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-osztályok | 2.0.70.Final |
| io.netty | Netty-transport | 4.1.118.Final |
| io.netty | netty-szállítási-osztályok-epoll | 4.1.118.Final |
| io.netty | Netty szállítási osztályok - kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (Unix-alapú közös natív szállítás) | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_általános | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway (egyszerű kliens tolókapu) | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | egyszerűgaming_kliens_szervlet_általános | 0.16.1-databricks |
| io.prometheus | egyszerű kliens nyomkövető közös | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_nyomkövető_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | gyűjtő | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktiválás | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | savanyított zöldség | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv (egy CSV-fájlokat kezelő könyvtár) | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-szoftverfejlesztőkészlet (SDK) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | TávoliTea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | karakterláncsablon | 3.2.1 |
| org.apache.ant | hangya | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | nyíl alakú formátum | 18.2.0 |
| org.apache.arrow | nyíl memóriaegység | 18.2.0 |
| org.apache.arrow | Arrow-Memória-Netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-korrekció | 18.2.0 |
| org.apache.arrow | irányvektor | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-kollekciók4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (közös szöveg) | 1.13.0 |
| org.apache.curator | kurátor-ügyfél | 5.7.1 |
| org.apache.curator | kurátor-keretrendszer | 5.7.1 |
| org.apache.curator | receptek kurátortól | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | adatvázlatok-memória | 3.0.2 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop kliens futásideje | 3.4.1 |
| org.apache.hive | hive-beeline (eszköz) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-kliens | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde (sorozatok és deserializáció) | 2.3.10 |
| org.apache.hive | hive-shims (hive kiegészítő modulok) | 2.3.10 |
| org.apache.hive | hive-storage-api (hive tárolási API) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler (méhkas-behúzási-ütemező) | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | borostyánkő | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-elrendezés-sablon-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-formátum | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-illesztékek | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0,9,3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | célközönség megjegyzései | 0.13.0 |
| org.apache.zookeeper | állatkerti gondozó | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | ellenőr-képzettség | 3.43.0 |
| org.codehaus.janino | közösségi fordítóprogram | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-kontinuáció | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http (egy Java HTTP szerver implementáció) | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty webszerver | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty webalkalmazás | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-kommon | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-szerver | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi erőforrás-kereső | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-újracsomagolt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (Jersey konténer szervlet) | 2.41. |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41. |
| org.glassfish.jersey.core | jersey-ügyfél | 2.41. |
| org.glassfish.jersey.core | jersey-közös | 2.41. |
| org.glassfish.jersey.core | jersey-szerver | 2.41. |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41. |
| org.hibernate.validator | hibernate-validator (a Hibernate hitelesítő) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (naplózó rendszer) | 3.4.1.Végleges |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Széljegyzetek | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | teszt-interfész | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest tesztelési keretrendszerrel kompatibilis | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl (nyílt forráskódú szoftver) | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Jótanács
Ha szeretné látni azoknak a Databricks Runtime-verzióknak a kiadási megjegyzéseit, amelyek elérték a támogatás megszűnését (EoS), tekintse meg a Támogatás megszűnéséhez kapcsolódó Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.