Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Megjegyzés:
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. A támogatott Databricks Runtime-verziók teljes listáját lásd a Databricks Runtime kiadási megjegyzések: változatok és kompatibilitás oldalon.
Az alábbi kibocsátási megjegyzések az Apache Spark 4.0.0 által üzemeltetett Databricks Runtime 17.1-ről nyújtanak információkat.
Az Azure Databricks 2025 augusztusában adta ki ezt a verziót.
Új funkciók és fejlesztések
- Kiterjesztett térbeli SQL-kifejezések és GEOMETRY és GEOGRAPHY adattípusok
- Rekurzív gyakori táblakifejezések (GA)
- Unity Catalog Python User-Defined Table Functions (UDTFs)
- Séma- és katalógusszintű alapértelmezett rendezés támogatása
- Megosztott elkülönítés végrehajtási környezete a Batch Unity Catalog Python UDF-jeihez
-
A JSON-beállítások jobb kezelése a
VARIANT -
display()támogatja a streamelési Real-Time módot - A Rate source támogatja a streaming Real-Time módot
- Az időalapú ablakokhoz támogatott eseményidőzítők
- Skaláris Python UDF-ek támogatják a szolgáltatás hitelesítő adatait
- Továbbfejlesztett sémalista
- Továbbfejlesztett karakterlánc oszlop-leképezés a Redshift írásokban
- DDL, SHOW és DESCRIBE támogatása hozzáférés-vezérlésű táblákon
- Csökkentett memóriahasználat a photon-író széles sémáihoz
- Az időzóna nélküli timestamp támogatása
Kiterjesztett térbeli SQL-kifejezések és GEOMETRY és GEOGRAPHY adattípusok
Mostantól beépített és GEOMETRY oszlopos GEOGRAPHY térinformatikai adatokat is tárolhat a térbeli lekérdezések jobb teljesítménye érdekében. Ez a kiadás több mint 80 új térbeli SQL-kifejezést ad hozzá, beleértve a térbeli illesztések topológiai kapcsolatainak importálására, exportálására, mérésére, létrehozására, szerkesztésére, érvényesítésére, átalakítására és meghatározására szolgáló függvényeket. Lásd: ST térinformatikai függvények, GEOGRAPHY típus és GEOMETRY típus.
Rekurzív gyakori táblakifejezések (GA)
A rekurzív gyakori táblakifejezések (rCTE-k) már általánosan elérhetők. Az rCTE-k használatával hierarchikus adatokat navigálhat egy önkiszolgáló CTE-vel, és UNION ALL rekurzív kapcsolatokat követhet.
Unity Catalog Python felhasználó által meghatározott táblafeladatok (UDTFs)
Mostantól regisztrálhatja a Python UDTF-eket a Unity Katalógusban központosított irányításhoz és az SQL-lekérdezések újrahasználható logikájához. Lásd a Python felhasználó által definiált táblafüggvényeit (UDTF-eket) a Unity Catalogban.
Séma- és katalógusszintű alapértelmezett rendezés támogatása
A Databricks Runtime 17.1-ben mostantól beállíthatja a sémák és katalógusok alapértelmezett rendezési beállításait. Ez lehetővé teszi, hogy olyan rendezést definiáljon, amely a sémában vagy katalógusban létrehozott összes objektumra vonatkozik, biztosítva a konzisztens rendezési viselkedést az adatok között.
Megosztott elkülönítés végrehajtási környezete a Batch Unity Catalog Python UDF-jeihez
Az ugyanazzal a tulajdonossal rendelkező Batch Unity Catalog Python UDF-jei alapértelmezés szerint megoszthatnak egy elkülönítési környezetet. Ez javíthatja a teljesítményt és csökkentheti a memóriahasználatot az elindítandó különálló környezetek számának csökkentésével.
Annak érdekében, hogy az UDF mindig teljesen izolált környezetben fusson, adja hozzá a STRICT ISOLATION jellemző záradékot. Lásd: Környezetelkülönítés.
A JSON-beállítások jobb kezelése a VARIANT
A from_json és to_json a függvények mostantól helyesen alkalmazzák a JSON-beállításokat a legfelső szintű VARIANT sémák használatakor. Ez biztosítja a más támogatott adattípusokkal való konzisztens viselkedést.
display() támogatja a streamelési Real-Time módot
A függvény valós display() idejű eseményindítót használó streamlekérdezésekkel is használható. Ebben a módban display() automatikusan a update kimeneti módot használja, és elkerüli egy LIMIT záradék hozzáadását, amely update esetén nem támogatott. A megjelenítési frissítés időköze a köteg időtartamától is független, így jobban támogatja a valós idejű válaszidőt.
A sebességforrás támogatja a streamelési Real-Time módot
A strukturált streamelés sebességforrása mostantól valós idejű triggerekkel működik, így folyamatos adatlétrehozást tesz lehetővé adatfolyamokhoz Streaming Real-Time mód használatával.
Az időalapú ablakokhoz támogatott eseményidőzítők
Az Azure Databricks támogatja az időalapú eseményindítókat az időalapú ablakműveletekhez Streaming Real-Time módban. Ez lehetővé teszi a késői adatok pontosabb kezelését és a vízjelezést valós idejű streamelési lekérdezésekben.
Skaláris Python UDF-ek támogatják a szolgáltatás hitelesítő adatait
A skaláris Python UDF-ek a Unity Catalog szolgáltatás hitelesítő adataival biztonságosan hozzáférhetnek a külső felhőszolgáltatásokhoz. Ez olyan műveletek integrálásához hasznos, mint a felhőalapú tokenizálás, titkosítás vagy titkos kulcskezelés közvetlenül az adatátalakításokba.
Továbbfejlesztett sémalista
A Snowflake-összekötő a parancs helyett a INFORMATION_SCHEMA táblázatot használja a SHOW SCHEMAS sémák listázásához. Ez a módosítás eltávolítja az előző megközelítés 10 000 sémakorlátját, és javítja a nagy számú sémával rendelkező adatbázisok támogatását.
Továbbfejlesztett sztringoszlop-leképezés a Redshift-írásokban
Ha táblázatokat ír a Redshiftbe spark.write segítségével, a karakterlánc oszlopokat, amelyeknek nincs megadott hosszúságuk, az VARCHAR(MAX) helyett TEXT alá történő leképezésre kerülnek. A Redshift alapértelmezett TEXTVARCHAR(256) viselkedésének megakadályozása elkerüli azt, hogy hosszabb karakterláncok írásakor hibák lépjenek fel.
DDL, SHOW és DESCRIBE támogatása hozzáférés-vezérlésű táblákon
Az olyan SQL-parancsok, mint a DDL, SHOW, és DESCRIBE, most már finomszemcsés hozzáférés-szabályozott táblákon futnak dedikált fürtök használatával. Ha szükséges a hozzáférés-vezérlés kényszerítése, az Azure Databricks a kiszolgáló nélküli számításon keresztül irányítja át ezeket a parancsokat, ugyanúgy, mint az olvasások, az egyesítések és a hozzáfűzések esetében. Lásd : DDL, SHOW, DESCRIBE és egyéb parancsok támogatása.
Csökkentett memóriahasználat a photon-író széles sémáihoz
Olyan fejlesztések történtek a Photon motoron, amelyek jelentősen csökkentik a memóriahasználatot a széles sémák esetében, és olyan forgatókönyveket kezelnek, amelyek korábban memóriakihasználtsági hibákat eredményeztek.
A zóna nélküli időbélyegző szintaxis támogatása
Most már megadhatja TIMESTAMP WITHOUT TIME ZONE ahelyett, hogy TIMESTAMP_NTZ. Ez a módosítás javítja az SQL Standardgal való kompatibilitást.
Viselkedési változások
- Az al-lekérdezés korrelációs probléma megoldódott
- Az időbélyeg NTZ-literálok már nem lesznek letolva
-
Érvénytelen
CHECKmegkötések esetén észlelt hiba - Pulsar csatlakozó már nem teszi elérhetővé a Bouncy Castle-t
- Az automatikus betöltő alapértelmezés szerint fájleseményeket használ, ha elérhető
-
Belső táblatulajdonságok szűrve
SHOW CREATE TABLE - Szigorúbb szabályok a stream-stream illesztésekhez hozzáfűzési módban
- A Teradata-összekötő kijavítja a kis- és nagybetűk megkülönbözteti a sztringek összehasonlítását
Az allekérdezéssel kapcsolatos korrelációs probléma megoldódott
Az Azure Databricks már nem korrelálja helytelenül a szemantikailag egyenlő aggregátumkifejezéseket egy részkérés és annak külső lekérdezése között. Korábban ez helytelen lekérdezési eredményekhez vezethet.
Az időbélyeg NTZ-literálok már nem kerülnek továbbításra.
Mind a Snowflake összekötő, mind a Snowflake Lakehouse Federation esetében a TIMESTAMP_NTZ (időzóna nélküli timestamp) literálok már nem kerülnek át a Snowflake-be. Ez a módosítás megakadályozza a nem kompatibilis időbélyeg-kezelés által okozott lekérdezési hibákat, és javítja az érintett lekérdezések megbízhatóságát.
Érvénytelen CHECK megkötések esetén észlelt hiba
Az Azure Databricks most egy AnalysisException hibát ad ki, ha a CHECK kényszerkifejezés nem oldható fel a korlátozás érvényesítése során.
Pulsar összekötő már nem teszi közzé Bouncy Castle
A Bouncy Castle könyvtár most árnyékolásra került a Pulsar összekötőben a classpath ütközések megakadályozása érdekében. Ennek eredményeképpen a Spark-feladatok már nem férhetnek hozzá az összekötő osztályaihoz org.bouncycastle.* . Ha az alkalmazás kódja a Bouncy Castle könyvtártól függ, telepítse manuálisan a könyvtárat a fürtre.
Az automatikus betöltő alapértelmezés szerint fájleseményeket használ, ha elérhető
Az automatikus betöltő fájleseményeket használ a címtárlista helyett, ha a betöltési útvonal egy külső hely, ahol engedélyezve van a fájlesemények használata. Az alapértelmezett érték most useManagedFileEventsif_available (volt false). Ez javíthatja a betöltési teljesítményt, és figyelmeztetést naplózhat, ha a fájlesemények még nincsenek engedélyezve.
Belső táblatulajdonságok szűrve SHOW CREATE TABLE
SHOW CREATE TABLE már nem tartalmaznak olyan belső tulajdonságokat, amelyek nem állíthatók be manuálisan vagy nem adhatók át a következőnek CREATE TABLE: . Ez csökkenti a keveredést, és a kimenetet a felhasználó által konfigurálható beállításokhoz igazítja.
Szigorúbb szabályok a stream-stream illesztésekhez hozzáfűzési módban
Az Azure Databricks mostantól nem engedélyezi a streamelési lekérdezéseket hozzáfűző módban, amelyek stream-stream illesztést, majd ablakösszesítést használnak, kivéve, ha mindkét oldalon vízjelek vannak meghatározva. A megfelelő vízjelek nélküli lekérdezések nem végleges eredményeket hozhatnak, megsértve a hozzáfűzési mód garanciáit.
A Teradata-összekötő kijavítja a kis- és nagybetűk megkülönbözteti a sztringek összehasonlítását
A Teradata-összekötő mostantól alapértelmezés szerint TMODE=ANSIa sztringek összehasonlítási viselkedésének igazítása az Azure Databrickshez a kis- és nagybetűk megkülönböztetésével. Ez a módosítás konfigurálható, és csak akkor érinti a meglévő felhasználókat, ha bejelentkeznek.
Könyvtárfrissítések
Frissített Python-kódtárak:
- google-hitelesítés 2.40.1-től 2.40.0-ig
- mlflow-skinny 3.0.0 és 3.0.1 között
- opentelemetry-api 1.33.0-tól 1.32.1-esig
- opentelemetry-sdk 1.33.0 és 1.32.1 között
- Step 2: opentelemetry-szemantic-conventions 0.54b0-ról 0.53b1-re
- csomagolás 24.1–24.2
- pip 24.2 és 25.0.1 között
Frissített R-kódtárak:
cli 3.6.4-től 3.6.5-ösig
curl 6.2.1-től 6.4.0-ra
általános 0.1.3-tól 0.1.4-ig
globális 0.16.3-tól 0.18.0-ra
2.3.2-ről 2.3.3-ra nyit
oszlop 1.10.1-től 1.11.0-ra
rlang 1.1.5-től 1.1.6-ig
sparklyr 1.9.0 és 1.9.1 között
stringi 1.8.4 és 1.8.7 között
3.2.1-től 3.3.0-ra
utf8 1.2.4-től 1.2.6-osig
Frissített Java-kódtárak:
- software.amazon.cryptools.AmazonCorrettoCryptoProvider verzió 2.4.1-linux-x86_64-ról 2.5.0-linux-x86_64-re
Apache Spark
A Databricks Runtime 17.1 tartalmazza az Apache Spark 4.0.0-t. Ez a kiadás tartalmazza az előző verzióban szereplő összes Spark-javítást és fejlesztést, valamint a következőket:
- SPARK-52721 A CANNOT_PARSE_DATATYPE üzenetparaméterének javítása
- SPARK-51919 Statikusan regisztrált Python-adatforrás felülírásának engedélyezése
- SPARK-52632 Visszaállítás: Szép megjelenítésű V2 írási tervcsomópontok
- SPARK-52715 Szép, formázott SQL-sztring az idő - DAY-TIME IDŐINTERVALLUM
- SPARK-51268 A TreeNode zárolásmentessé tétele
- SPARK-52701 A float32 típusú szélesítés javítása modban boolnal az ANSI alatt
- SPARK-52563 Var elnevezési hiba javítása a _assert_pandas_almost_equal
- SPARK-52541 Programozási útmutató hozzáadása deklaratív pipeline-okhoz
- SPARK-51695 A CHECK CONSTRAINT szintaxisváltozás által okozott teszthibák kijavítása
- SPARK-52666 Felhasználó által definiált típus leképezése a MutableValue javítására a SpecificInternalRow-ban
- SPARK-52660 Időtípus hozzáadása a CodeGenerator#javaClass fájlhoz
- SPARK-52693 Támogatás +/- ANSI napi időintervallumok időről/időre
- SPARK-52705 Determinisztikus ellenőrzés átalakítása a csoportosítási kifejezésekhez
- SPARK-52699 Időtípus összesítésének támogatása értelmezett módban
- SPARK-52503 Az elvetés javítása, ha a bemeneti oszlop nem létezik
- SPARK-52535 Az ApplyColumnarRulesAndInsertTransitions szabály kód olvashatóságának javítása
- SPARK-52551 Új v2 predikátum hozzáadása BOOLEAN_EXPRESSION
- SPARK-52698 Visszaállítás: Az adatforrás-modul típustippjeinek javítása
- SPARK-52684 Parancsok atomivá tétele CACHE TABLE végrehajtási hibák esetén
- SPARK-52671 A RowEncoder nem kereshet feloldott UDT-t
- SPARK-52670 A HiveResult kompatibilissé tétele a UserDefinedType#stringifyValue használatával
- SPARK-52692 A TIME típus támogatása a gyorsítótárazásban
- SPARK-51516 TIME támogatása a Thrift szerver által
- SPARK-52674 A RandomStringUtilshoz kapcsolódó elavult API-k használatának törlése
- SPARK-51428 Aliasok hozzárendelése csoportosított kifejezésfákhoz determinisztikus módon
- SPARK-52672 Ne cserélje le a rendezési/having kifejezéseket aliasokra, ha a kifejezés létezik az Összesítésben
- SPARK-52618 TIME(n) időtípus átalakítása TIME(m) időtípusra
- SPARK-52656 Current_time() javítása
- SPARK-52630 Streamelési operátor és állapotkezelési kód és könyvtárak átrendezése
- SPARK-52649 Aliasok levágása a rendezési/rendezési/szűrési kifejezések egyeztetése előtt a buildAggExprList alkalmazásban
- SPARK-52578 Metrikák hozzáadása sorokhoz az esetek és műveletek nyomon követésére a MergeRowsExecben
- SPARK-49428 Scala Connect kliens áthelyezése a Connectorból az SQL-be
- SPARK-52494 Kettőspont-aláírás operátor szintaxisának támogatása a Variant-mezők eléréséhez
- SPARK-52642 A daemonWorkers.get(worker) használatával elkerüli a váratlan szinkronizációs hibákat a szünetelő munkavállalók és a démonmunkavállalók között
- SPARK-52570 Az osztás nullával való engedélyezése numerikus rmod esetén, ha az ANSI engedélyezve van
- SPARK-52633 Önálló uniós gyermekkimenet deduplikálása deduplikációja a Deduplikátumrelations előtt
- SPARK-52600 A CompletionIterator áthelyezése a common/utils szolgáltatásba
- SPARK-52626 Csoportosítás engedélyezése időtípus szerint
- SPARK-52395 Sikertelen csökkentő feladat azonnali leállítása, ha a Prism lekérési kérelme meghiúsul
- SPARK-52596 Próbáljon létrehozni TIMESTAMP_NTZ a DATE és TIME alapján
- SPARK-52595 A TimeAdd kifejezés átnevezése TimestampAddInterval névre
- SPARK-52586 Az AnyTimeType bemutatása
- SPARK-52583 Fejlesztői API hozzáadása a UserDefinedType értékeinek sztringezéséhez
- SPARK-52354 Típuskényszer hozzáadása az UnionLoop-hoz
- SPARK-52579 Rendszeres nyomkövetési memóriakép beállítása Python-feldolgozókhoz
- SPARK-52456 A spark.eventLog.rolling.maxFileSize minimális korlátjának csökkentése
- SPARK-52536 Az AsyncProfilerLoader extractionDir beállítása a Spark helyi könyvtárához
- SPARK-52405 A V2JDBCTest kiterjesztése több partíció olvasásának teszteléséhez
- SPARK-52303 Az ExternalCommandRunner előléptetése stabilra
- SPARK-52572 A DataFrame.isin CAST_INVALID_INPUT hiba elkerülése ANSI módban
- SPARK-52349 Logikai osztási tesztek engedélyezése az ANSI engedélyezésével
- SPARK-52402 A Kendall és Pearson korreláció nullával való osztásból eredő hibáinak kijavítása ANSI módban
- SPARK-52356 Osztás nullával engedélyezése logikai mod/rmod műveletekhez, amikor az ANSI engedélyezve van
- SPARK-52288 Ne INVALID_ARRAY_INDEX felosztás/rsplit állapotban, ha az ANSI mód be van kapcsolva
- SPARK-52557 Kerülje a to_numeric(errors='coerce") CAST_INVALID_INPUT ANSI módban
- SPARK-52440 Python telepítési extra hozzáadása deklaratív csővezetékekhez
- SPARK-52569 Az osztály leadási kivételének javítása a SecondsOfTimeWithFraction alkalmazásban
- SPARK-52540 TIMESTAMP_NTZ létrehozása DÁTUM és IDŐ alapján
- SPARK-52539 Munkamenet-horgok integrálása
- SPARK-52554 Kerüljük el a többszöri körülutazásokat a Spark Connect konfiguráció ellenőrzése során.
- SPARK-52553 A NumberFormatException javítása az 1- es verziós változásnapló olvasásakor
- SPARK-52534 Az MLCache és az MLHandler szálbiztossá tétele
- SPARK-52460 Belső IDŐértékek tárolása nanoszekundumként
- SPARK-52482 ZStandard-támogatás fájladatforrás-olvasóhoz
- SPARK-52531 A külső lekérdezési aggregátumban lévő OuterReference függvény helytelenül kapcsolódik a külső lekérdezés-összesítéshez
- SPARK-52339 Az InMemoryFileIndex-példányok összehasonlítása kijavítva
- SPARK-52418 NoElements állapotváltozó hozzáadása a PercentileHeap elemhez az isEmpty() ismétlődő számításainak elkerülése érdekében
- SPARK-52537 Stacktrace nyomtatása temp dir hiba létrehozásakor
- SPARK-52462 Típuskényszer kényszerítése a gyermekek kimeneti deduplikációja előtt az Unionban
- SPARK-52528 Nullával való osztás lehetőségének engedélyezése numerikus modulus esetén az ANSI bekapcsolásával.
- SPARK-52458 Spark.eventLog.excludedPatterns támogatása
- SPARK-52493 IDŐZÓNA NÉLKÜLI IDŐBÉLYEG támogatása
- SPARK-51563 Az IDŐZÓNA NÉLKÜLI TIME(n) teljesen kvalifikált típusnév támogatása
- SPARK-52450 A séma mélytükrözés teljesítményének javítása
- SPARK-52519 Nullával való osztás engedélyezése numerikus floordiv esetén az ANSI bekapcsolásával
- SPARK-52489 Ismétlődő SQLEXCEPTION és NOT FOUND kezelők megtiltása az SQL-szkriptben
- SPARK-52488 Az alias eltávolítása a külső hivatkozások becsomagolása előtt HAVING
- SPARK-52383 Hibák javítása a SparkConnectPlannerben
- SPARK-52335 Az érvénytelen gyűjtőszám-hiba egységesítése a Csatlakozás és a Klasszikus esetében
- SPARK-52337 Az InvalidPlanInput-ot felhasználói hibává kell tenni
- SPARK-52312 A V2WriteCommand figyelmen kívül hagyása a DataFrame gyorsítótárazásakor
- SPARK-52487 A szakasz elküldt idejének és időtartamának hozzáadása a StagePage részleteihez
- SPARK-52433 Sztring-kényszerítés egyesítése a createDataFrame-ben
- SPARK-52427 Projekt által lefedett aggregátumkifejezés-lista normalizálása
- SPARK-51745 "State Machine" kényszerítése a RocksDBStateStore számára
- SPARK-52447 A GetViewColumnByNameAndOrdinal normalizálás áthelyezése a SessionCatalogSuite-ba
- SPARK-52397 Idempotens ExecutePlan: második ExecutePlan ugyanazzal az operationId és plan reattaches
- SPARK-52355 VariantVal objektumtípus következtetése VariantType típusként adatkeret létrehozásakor
- SPARK-52425 ExtractValue újrabontása az egyátengetéses implementációban való újrafelhasználáshoz
- SPARK-52249 A numerikus truediv osztásának engedélyezése az ANSI engedélyezésével
- SPARK-52228 Az állapotállapot-interakció mikró-benchmark integrálása a Quicksilver rendszerébe (TCP)
- SPARK-48356 A FOR utasítás oszlopséma-következtetésének javítása
- SPARK-48353 Kivételkezelési fejlesztések
- SPARK-52060 OneRowRelationExec csomópont létrehozása
- SPARK-52391 TransformWithStateExec függvények/vars újrabontása alaposztályba a Scala és a Python esetében
- SPARK-52218 Az aktuális datetime függvények ismételt evaluablevá tétele
- SPARK-52350 A 4.0-s SS-programozási útmutató hivatkozásának javítása
- SPARK-52385 TempResolvedColumns eltávolítása a InheritAnalysisRules névből
- SPARK-52392 Új egyátadásos elemző funkció
- SPARK-52243 NERF-támogatás hozzáadása sémával kapcsolatos InvalidPlanInput-hibákhoz
- SPARK-52338 Alapértelmezett rendezés öröklése sémáról Nézetre
- SPARK-52307 Skaláris nyíl iterátor UDF támogatása
- SPARK-52300 Az SQL UDTVF felbontásának konzisztens konfigurációk használata nézetfeloldással
- SPARK-52219 Sémaszintű rendezés támogatása táblákhoz
- SPARK-52272 A V2SessionCatalog nem módosítja a Hive-katalógus sémáját
-
SPARK-51890 Paraméter hozzáadása
optionslogikai terv nézethez - SPARK-51936 A ReplaceTableAsSelectnek felülírnia kell az új táblát a hozzáfűzés helyett
- SPARK-51302 A Spark Connect támogatja a JDBC-t, és a DataFrameReader API-t használja
- SPARK-50137 Ne térjen vissza a Hive nem kompatibilis módjaira a táblalétrehozás meghiúsulásának elkerülése
- SPARK-52184 Külső motor JDBC szintaxishibáinak egységes kivétellel való burkolása
- SPARK-47618 A Magic Committer használata alapértelmezés szerint az összes S3-gyűjtőhöz
- SPARK-52305 Az isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull docstring finomítása
- SPARK-52174 A spark.checkpoint.compress alapértelmezés szerint történő engedélyezése
- SPARK-52224 Pyyaml bevezetése függőségként a Python-ügyfélhez
- SPARK-52233 map_zip_with függvény javítása lebegőpontos típusokhoz
- SPARK-52036 Adja hozzá az SQLConfHelper tulajdonságot a v2-hez. FileScan
- SPARK-52159 A MariaDB-dialektus túl széles feltételének eltávolítása
- SPARK-50104 Támogatja a SparkSession.executeCommand használatát a Connectben
- SPARK-52240 Javított sorindex-használat a csomagolt tömbök vektoros olvasóban történő felrobbantásakor
- SPARK-52153 From_json és to_json javítása variánssal
- SPARK-48618 A nem létező teszt javítása a 3part és a 2part nevek ellenőrzéséhez
- SPARK-52216 Az InvalidCommandInput hibát felhasználó számára látható hibává alakítani
- SPARK-52299 Elavult JsonNode.fields cseréje
- SPARK-52287 Javítsa a SparkContextet, hogy ne töltse fel o.a.s.internal.io.cloud.* beállítást, ha nem létezik
- SPARK-51430 A PySpark környezetnaplózójának leállítása a naplók stdout-ba való propagálásáról
- SPARK-52278 Skaláris Arrow UDF támogatja a nevesített argumentumokat
- SPARK-52026 Pandas API letiltása a Sparkon ANSI-módban alapértelmezés szerint
- SPARK-52171 StateDataSource illesztés implementációja a 3. állapothoz
- SPARK-52159 A jdbc-dialektusok táblalétezés-ellenőrzésének megfelelő kezelése
- SPARK-52158 InvalidInputErrors objektum hozzáadása a SparkConnectPlanner hibáinak központosításához
- SPARK-52195 A Python TWS kezdeti állapotoszlop-elvetési problémájának kijavítása
- SPARK-52211 A $ utótag csíkozása a SparkConnectServer INFO-naplójából
- SPARK-52239 Az Arrow UDF regisztrálásának támogatása
- SPARK-52215 Skaláris Arrow UDF implementálása
- SPARK-52188 A StateDataSource javítása, ha a StreamExecution.RUN_ID_KEY nincs beállítva
- SPARK-52189 Új golden fájl tesztek a NATURAL JOIN-hoz GROUP BY, HAVING, ORDER BY és LCA-kal
- SPARK-52079 Attribútumok sorrendjének normalizálása a belső projektlistákban
- SPARK-52234 Nem sztring típusú bemenet hiba javítása a schema_of_csv/xml-ben
- SPARK-52221 SqlScriptingLocalVariableManager újrabontása egy általánosabb környezetkezelőbe
- SPARK-52181 A változat méretkorlátjának növelése 128MiB-ra
- SPARK-52217 Külső referenciaellenőrzés kihagyása az egymenetes megoldó Szűrője alatt
- SPARK-51260 A V2ExpressionBuilder és a PushableExpression áthelyezése a Katalizátor modulba
- SPARK-52156 Régi CREATE TEMPORARY TABLE ... USING szolgáltató az opció alatt
- SPARK-51012 SparkStrategy eltávolítása a Connect Shimsből
- SPARK-52109 Adatforrás V2 Tábla Katalógus API-hoz a ListTableSummaries API hozzáadása
- SPARK-50915 GetCondition és deprecate getErrorClass hozzáadása a PySparkExceptionben
- SPARK-52022 A SparkThrowable.getQueryContext alapértelmezett beadási metódusának hozzáadása
- SPARK-51147 A streameléssel kapcsolatos osztályok újrabontása dedikált streamkönyvtárba
- SPARK-52120 A munkamenet átadása a ConnectHelpernek
- SPARK-52021 Operátor- és kifejezésminták elkülönítése
- SPARK-51722 A "stop" forrás eltávolítása a ParseExceptionből
- SPARK-52096 Kafka forrás eltolás állítási hibájának átsorolása
- SPARK-51985 Kísérleti elemek eltávolítása az AccumulatorSource-ból
- SPARK-51156 Statikus jogkivonat-hitelesítés támogatása a Spark Connectben
- SPARK-52157 Az OuterReference korábbi számított nevének használata egyáteresztő feloldóban
- SPARK-52100 A rekurziós szint korlátjának felülírásának engedélyezése szintaxisban
- SPARK-51605 A szülőkönyvtár létrehozása a logFile megérintése előtt
- SPARK-52127 Összesűríti a MapState KEYS / VALUES / ITERATOR protokollját a TransformWithState-hez a PySparkban
- SPARK-52040 A ResolveLateralColumnAliasReference-nek meg kell őriznie a terv azonosítóját
- SPARK-51638 Távoli lemezen tárolt RDD-blokkok külső shuffle szolgáltatáson keresztüli beolvasásának javítása
- SPARK-51983 A pandas API tesztelési környezetének előkészítése a Sparkban ansi mód engedélyezésével
- SPARK-52087 Címkék és forrás másolásának hozzáadása az AliasHelper.trimNonTopLevelAliases fájlhoz
- SPARK-51210 --enable-native-access=ALL-UNNAMED hozzáadása a Java 24+ Java-beállításaihoz
- SPARK-52052 .broadcast hozzáadása a SerializableConfiguration társobjektumában
- SPARK-51823 Konfiguráció hozzáadása az állapottároló végrehajtókon való megőrzésének tiltásához
- SPARK-51291 Az állapottároló betöltéséből származó ellenőrzési hibák újraosztályozása
- SPARK-52006 Kizárja a CollectMetricsExec-akkumulátort a Spark felhasználói felületéről, eseménynaplókból és metrikai szívverésekből.
- SPARK-52076 Explicit módon bezárja az ExecutePlanResponseReattachableIteratort a használat után
- SPARK-51428 Aliasok hozzárendelése csoportosított kifejezésfákhoz determinisztikus módon
- SPARK-52079 Attribútumok sorrendjének normalizálása a belső projektlistákban
- SPARK-52033 Kijavítottuk a csomópont létrehozása hibát, amely miatt a gyermekcsomópont kimenete több példányban is rendelkezhet ugyanahhoz az attribútumhoz
- SPARK-51428 Aliasok hozzárendelése csoportosított kifejezésfákhoz determinisztikus módon
- SPARK-52055 Tiltsa le a kivételt az ExecutePlanResponseReattachableIterator alkalmazásban. Del
- SPARK-51921 Hosszú típus használata a transformWithState-ben TTL-időtartam vonatkozásában ezredmásodpercben
- SPARK-50763 Elemzési szabály hozzáadása SQL-táblafüggvények feloldásához
- SPARK-51884 Külső hatókörattribútumok hozzáadása a SubqueryExpressionhoz
- SPARK-50762 Elemzési szabály hozzáadása az SQL skaláris UDF-ek feloldásához
- SPARK-51814 A StructType.fields helyett a list(self) függvényt használja a régi verziókompatitiváláshoz
- SPARK-51537 Hozza létre a munkamenet-specifikus osztálybetöltőt a végrehajtó alapértelmezett munkamenet-osztálybetöltője alapján
- SPARK-50777 Redundáns no-op init/destroy metódusok eltávolítása szűrőosztályokból
- SPARK-51691 A SerializationDebugger kezelje a kivételeket, amikor megpróbálja megtalálni a szerializálási probléma okát
- SPARK-51386 Név hozzárendelése hibafeltételekhez _LEGACY_ERROR_TEMP_3300-3302
- SPARK-50734 Katalógus API hozzáadása SQL UDF-ek létrehozásához és regisztrálásához
- SPARK-51989 Hiányzó szűrési alosztályok hozzáadása az adatforrás összes listájához
- SPARK-52037 A belső LCA-projektlisták sorrendjének meg kell egybeesnie az eredeti projektlistában szereplő sorrenddel
- SPARK-52007 A kifejezésazonosítók nem lehetnek jelen a csoportosítási kifejezésekben csoportosítási csoportok használatakor
- SPARK-51860 Alapértelmezés szerint letiltja a spark.connect.grpc.debug.enabled parancsot
- SPARK-47952 A Valódi SparkConnectService GRPC-cím és port programozott lekérésének támogatása a Yarn futtatásakor
- SPARK-50906 Adjon hozzá nullabilitási ellenőrzést ahhoz, hogy a to_avro bemenetek megfeleljenek a sémának.
- Spark-50581 javítás támogatása UDAF a Dataset.observe()
- SPARK-49946 Hibaosztály megkövetelése a SparkOutOfMemoryErrorban
- SPARK-49748 GetCondition és deprecate getErrorClass hozzáadása a SparkThrowable-ben
- SPARK-51959 A függvények ne importálják a ParentDataFrame-et
- SPARK-51964 Attribútumok helyes feloldása rejtett kimenetből ORDER BY egy aggregátumon belül és HAVING felül az egyáteresztő elemzőben
- SPARK-49942 Az errorClass átnevezése feltételre a classifyException() osztályban
- SPARK-51963 Az IndexToString.transform egyszerűsítése
- SPARK-51946 Szándékosan hibázik, ha a 'col' partíciónévvel próbál hive-inkompatibilis adatforrástáblát létrehozni.
- SPARK-51553 A EXTRACT módosítása a TIME adattípus támogatásához
- SPARK-51891 Nyomja meg a Protokoll ListState GET / PUT / APPENDLIST for transformWithState a PySpark
- SPARK-51931 MaxBytesPerOutputBatch hozzáadása az Arrow kimeneti kötegek bájtjainak számának korlátozásához
- SPARK-51441 DSv2 API-k hozzáadása korlátozásokhoz
- SPARK-51814 Használja a RecordBatch.schema.names helyett a column_names-t a régi pyarrow kompatibilitáshoz.
- SPARK-51913 A JDBCTableCatalog#loadTable-nak helyesen kellene 'nincs ilyen tábla' hibát dobnia
- SPARK-51840 Partícióoszlopok visszaállítása a HiveExternalCatalog#alterTable alkalmazásban
- SPARK-51414 A make_time() függvény hozzáadása
- SPARK-49700 Egységes Scala-interfész a Connecthez és a Classichoz
- SPARK-51914 Com.mysql.cj hozzáadása a spark.sql.hive.metastore.sharedPrefixes fájlhoz
- SPARK-51827 A Spark Connect támogatása a TransformWithState-on a PySparkban
- SPARK-51901 Generátorfüggvények letiltása csoportosítási csoportokban
- SPARK-51423 A TIME-adattípus current_time() függvényének hozzáadása
- SPARK-51680 A TIME logikai típusának beállítása a parquet-íróban
- SPARK-51889 A MapState clear() hiba kijavítása a Python TWS-ben
- SPARK-51869 Besorolás létrehozása felhasználói hibákhoz a Scala TransformWithState UDF-jeiben
- SPARK-51878 A fillDefaultValue javítása a hajtogatható alapértelmezett kifejezés végrehajtásával.
- SPARK-51757 A LEAD/LAG függvény eltolásának javítása meghaladja az ablakcsoport méretét
- SPARK-51805 A nem megfelelő argumentummal rendelkező függvénynek megfelelő kivételt kell eredményeznie a belső argumentum helyett
- SPARK-51900 Adattípus-eltérés helyes kezelése az egyszeri elemzőben
- SPARK-51421 Másodperces IDŐ adattípus lekérése
- SPARK-51661 A TIME oszlopértékek partícióinak felderítése
- SPARK-51687 Lenyomható szűrők az IDŐ értékekkel a Parquet-hez
- SPARK-51419 Munkaidő-adattípus lekérése
- SPARK-51881 Az AvroOptions összehasonlíthatóvá tétele
- SPARK-51861 Az InMemoryRelation Plan részleteinek duplikált/szükségtelen adatainak eltávolítása
- SPARK-51814 Új API transformWithState bemutatása a PySparkban
- SPARK-51779 Virtuális oszlopcsaládok használata stream-stream illesztésekhez
- SPARK-51649 Időpartíciók dinamikus írása/olvasása
- SPARK-51634 Idő típus támogatása a halomon kívüli oszlopvektorokban
- SPARK-51877 "chr", "random" és "uuid" függvények hozzáadása
- SPARK-51610 A TIME adattípus támogatása a parquet-adatforrásban
- SPARK-51420 A TIME adattípus perceinek lekérdezése
- SPARK-51822 A statefulProcessor.init() során a nem engedélyezett függvények meghívása esetén a rendszer a minősített hibát adja vissza.
- SPARK-51868 Típus kényszerítési érvényesítés áthelyezése külön objektumba
- SPARK-49747 Csatlakozás/fájlok migrálása strukturált naplózásba
Az Azure Databricks ODBC/JDBC-illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Karbantartási frissítések
Tekintse meg az Azure Databricks Runtime 17.1 karbantartási frissítéseit.
Rendszerkörnyezet
- operációs rendszer: Ubuntu 24.04.2 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Telepített Python-kódtárak
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| széljegyzetes típusok | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | nyíl | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | Aszinkron-LRU | 2.0.4 | attribútumok | 24.3.0 |
| automatikus parancs | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web (web kezelési modul az Azure-hoz) | 8.0.0 |
| Azure-tároló-blob | 12.23.0 | Azure-tároló-fájl-adattó (Azure Storage File Data Lake) | 12.17.0 | Bábel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | fekete | 24.10.0 |
| fehérítő | 6.2.0 | villogó | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | Gyorstár-eszközök | 5.5.1 | tanúsítvány | 2025.01.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | karakterkészlet-normalizáló (charset-normalizer) | 3.3.2 |
| kattintás | 8.1.7 | Cloudpickle | 3.0.0 | kommunikáció | 0.2.1 |
| ContourPy | 1.3.1 | kriptográfia | 43.0.3 | biciklista | 0.11.0 |
| Cython | 3.0.12 | databricks SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy hibakereső eszköz | 1.8.11 | dekorátor | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | docstring Markdown-formátummá alakítása | 0.11 |
| Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | fájlzárolás | 3.18.0 | betűtípusok | 4.55.3 |
| FQDN | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | Google-autentikáció | 2.40.0 |
| google-cloud-core (Google felhő mag) | 2.4.3 | Google felhőtárhely | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (Google újraindítható média) | 2.7.2 | googleapis-közös-protokollok | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | Idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | ragoz | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| izodátum | 0.6.1 | izoduráció | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-specifikációk | 2023.07.01. | jupyter-események | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_kliens | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server (Jupyter kiszolgáló) | 2.14.1 |
| jupyter szerver terminálok | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| JupyterLab-widgetek | 1.0.0 | jupyterlab_szerver | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| félhangol | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-kiterjesztések | 1.3.1 |
| mypy kiterjesztések | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| jegyzetfüzet | 7.3.2 | notebook-shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-szemantikai-konvenciók | 0,53b1 | Felülbírálja | 7.4.0 | csomagolás | 24,2 |
| Pandák | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| útvonal specifikáció (pathspec) | 0.10.3 | bűnbak | 1.0.1 | pexpect | 4.8.0 |
| párna | 11.1.0 | pipa | 25.0.1 | Platformdirs | 3.10.0 |
| ábrázolás | 5.24.1 | csatlakozós | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit: parancssori eszközkészlet | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser (C és C++ fájlok feldolgozására szolgáló parser) | 2.21 |
| pydantic (egy Python könyvtár) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes (egy program vagy eszköz neve) | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc (Python ODBC interfész) | 5.2.0 | pyparsing (egy Python könyvtár a szövegelemzéshez) | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | Szoftver verzió: 2.9.0.post0 |
| Python JSON naplózó | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytool konfiguráció | 1.2.6 | pytz (egy Python könyvtár az időzóna számításokhoz) | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Hivatkozás | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator | 0.1.4 | RFC3986-érvényesítő | 0.1.1 | gazdag | 13.9.4 |
| kötél | 1.12.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn (egy Python gépi tanulási könyvtár) | 1.6.1 | scipy (tudományos és műszaki számítási Python könyvtár) | 1.15.1 |
| tengerben született | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| hat | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| rendezésikontainers | 2.4.0 | levesszűrő | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | halmaz adatok | 0.2.0 | Starlette | 0.46.2 |
| statsmodels - statisztikai szoftvercsomag | 0.14.4 | strictyaml | 1.7.3 | Kitartás | 9.0.0 |
| befejezett | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| jellemzők | 5.14.3 | típusőrző | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions (gépelési kiterjesztések) | 4.12.2 | tzdata | 2024.1 | ujson (JSON-kezelő könyvtár a Pythonban) | 5.10.0 |
| felügyelet nélküli frissítések | 0,1 | uri-sablon | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webszínek | 24.11.1 | webkódolások | 0.5.1 |
| websocket-klient | 1.8.0 | Mi a javítás? | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | becsomagolva | 1.17.0 | yapf | 0.40.2 |
| cipzár | 3.21.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2025-03-20-án.
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| nyíl | 19.0.1 | jelszókérés | 1.2.1 | Meggyőződj arról, hogy | 0.2.1 |
| háttérportolások | 1.5.0 | alapkép | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | boot - rendszerindítás | 1.3-30 |
| sört főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.7 |
| bslib | 0.9.0 | gyorsítótár | 1.1.0 | hívásindító | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | kronométer | 2.3-62 |
| osztály | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| óra | 0.7.2 | fürt | 2.1.6 | kódolási eszközök | 0.2-20 |
| színterület | 2.1-1 | commonmark | 1.9.5 | fordítóprogram | 4.4.2 |
| config | 0.3.2 | ellentmondásos | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | azonosító adatok | 2.0.2 | göndörít | 6.4.0 |
| adat.táblázat | 1.17.0 | adatkészletek | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Leírás | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | kivonat | 0.6.37 |
| lefelé irányított világítású | 0.4.4 | dplyr (adatmanipulációs csomag az R programozási nyelvhez) | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | három pont | 0.3.2 | kiértékel | 1.0.3 |
| rajongók | 1.0.6 | színek | 2.1.2 | gyorstérkép | 1.2.0 |
| fontawesome | 0.5.3 | elveszettek | 1.0.0 | foreach | 1.5.2 |
| külföldi | 0.8-86 | kovácsol | 0.2.0 | fs | 1.6.5 |
| jövő | 1.34.0 | jövő.alkalmaz | 1.11.3 | gargarizál | 1.5.2 |
| általánosítás | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globálisok | 0.18.0 | ragasztó | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower-hegység | 1.0.2 |
| grafika | 4.4.2 | grDevices | 4.4.2 | rács | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | védősisak | 1.4.1 | kikötő | 2.5.4 |
| magasabb | 0.11 | HMS | 1.1.3 | HTML-eszközök | 0.5.8.1 |
| HTML-widgetek | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | Azonosítók | 1.0.1 | ini | 0.3.1 |
| iPred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | címkézés | 0.4.3 |
| később | 1.4.1 | rácsszerkezet | 0.22-5 | láva | 1.8.1 |
| életciklus | 1.0.4 | hallgatás | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | Tömeg | 7.3-60.0.1 |
| Mátrix | 1.6-5 | memorizálás | 2.0.1 | módszerek | 4.4.2 |
| mgcv | 1.9-1 | pantomimázás | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| „numDeriv” | 2016. augusztus - 1.1 | openssl (nyílt forráskódú titkosító szoftver) | 2.3.3 | párhuzamos | 4.4.2 |
| párhuzamosan | 1.42.0 | pillér | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | csomag betöltése | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | dicséret | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | haladás | 1.2.3 |
| progressr | 0.15.1 | promises | 1.3.2 | Próto | 1.0.0 |
| közvetít | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | véletlen erdő (randomForest) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer (egy szoftvercsomag neve) | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reakcióképes | 0.4.4 |
| reactR | 0.6.1 | Readr | 2.1.5 | readxl (Excel fájlokat olvasó programcsomag) | 1.4.5 |
| Receptek | 1.2.0 | Visszavágó | 2.0.0 | visszavágó2 | 2.1.2 |
| Távvezérlők | 2.5.0 | megismételhető példa | 2.1.1 | újraformázás2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29. | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| változatok | 2.1.2 | Szüret | 1.0.4 | Sass | 0.4.9 |
| mérlegek | 1.3.0 | szelekciós eszköz | 0.4-2 | munkamenet-információk | 1.2.3 |
| alakzat | 1.4.6.1 | Fényes | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| térbeli | 7.3-17 | splinek | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statisztika | 4.4.2 | statisztikák4 | 4.4.2 |
| string | 1.8.7 | stringr | 1.5.1 | túlélés | 3.5-8 |
| magabiztosság | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| Tcl/Tk programozási nyelv és eszközkészlet. | 4.4.2 | testthat | 3.2.3 | szövegformázás | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | időváltás | 0.3.0 | idődátum | 4041.110 |
| tinytex | 0.56 | eszközök | 4.4.2 | tzdb | 0.5.0 |
| URL-ellenőrző | 1.0.1 | ezt használd | 3.1.0 | utf8 | 1.2.6 |
| segédprogramok | 4.4.2 | univerzálisan egyedi azonosító (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | bruum | 1.6.5 |
| Waldo | 0.6.1 | szőrszál | 0.4.1 | valamivel | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML (adat-szerializációs formátum) | 2.3.10 | zeallot | 0.1.0 |
| zip fájl | 2.3.2 |
Telepített Java- és Scala-kódtárak (Scala 2.13 klaszterverzió)
| Csoportazonosító | A tárgy azonosítója | verzió |
|---|---|---|
| ANTLR (Egy másik eszköz a nyelvi felismeréshez) | ANTLR (Egy másik eszköz a nyelvi felismeréshez) | 2.7.7 |
| com.amazonaws | Amazon Kinesis kliens | 1.12.0 |
| com.amazonaws | AWS Java SDK - Automatikus Skálázás | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (AWS Java SDK konfiguráció) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS Java SDK importexport modul | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms (Amazon Web Services Java SDK KMS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-gépi tanulás | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Támogatás | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf könyvtárak | 1.11.22 |
| com.amazonaws | aws-java-sdk-munkaterületek | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | adatfolyam | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java (Databricks Java SDK) | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-árnyékolt | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | osztálytárs | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotációk | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (adatformátum CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson adattípus - Joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1-őslakosok |
| com.github.fommil.netlib | natív rendszer-java | 1.1 |
| com.github.fommil.netlib | natív rendszer-java | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-natív_rendszer-linux-x86_64 | 1.1-őslakosok |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | hibára hajlamos annotációk | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | hozzáférési hiba | 1.0.2 |
| com.google.guava | guáva | 33.4.0-jre |
| com.google.guava | hallgatható jövő | 9999.0-üres-az-ütközés-elkerülése-miatt-guava-val |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profilkészítő | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | fansi_2.13 | 0.5.0 |
| com.lihaoyi | forráskód_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (kompressziós algoritmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl (JAXB implementáció) | 2.2.11 |
| com.tdunning | JSON formátum | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lencsék_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-elemzők | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| „commons-codec” | „commons-codec” | 1.17.2 |
| commons-collections (közös gyűjtemények könyvtár) | commons-collections (közös gyűjtemények könyvtár) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-fájlfeltöltés | Commons-fájlfeltöltés | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| közös naplózás | közös naplózás | 1.1.3 |
| közös medence | közös medence | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | légkompresszor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.3 |
| io.dropwizard.metrics | metrikák annotációja | 4.2.30 |
| io.dropwizard.metrics | metrikai magrész | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | mutatók-egészségügyi ellenőrzések | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json (metrikák JSON formátumban) | 4.2.30 |
| io.dropwizard.metrics | JVM-metrikák | 4.2.30 |
| io.dropwizard.metrics | Metrikai szervletek | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all csomag | 4.1.118.Final |
| io.netty | Netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | Netty HTTP kodek | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-zokni | 4.1.118.Final |
| io.netty | netty-közös | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | Verziószám: 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-osztályok | 2.0.70.Final |
| io.netty | Netty-transport | 4.1.118.Final |
| io.netty | netty-szállítási-osztályok-epoll | 4.1.118.Final |
| io.netty | Netty szállítási osztályok - kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (Unix-alapú közös natív szállítás) | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_általános | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway (egyszerű kliens tolókapu) | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | egyszerűgaming_kliens_szervlet_általános | 0.16.1-databricks |
| io.prometheus | egyszerű kliens nyomkövető közös | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_nyomkövető_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | gyűjtő | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktiválás | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | savanyított zöldség | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv (egy CSV-fájlokat kezelő könyvtár) | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-szoftverfejlesztőkészlet (SDK) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | TávoliTea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | karakterláncsablon | 3.2.1 |
| org.apache.ant | hangya | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | nyíl alakú formátum | 18.2.0 |
| org.apache.arrow | nyíl memóriaegység | 18.2.0 |
| org.apache.arrow | Arrow-Memória-Netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-korrekció | 18.2.0 |
| org.apache.arrow | irányvektor | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-kollekciók4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (közös szöveg) | 1.13.0 |
| org.apache.curator | kurátor-ügyfél | 5.7.1 |
| org.apache.curator | kurátor-keretrendszer | 5.7.1 |
| org.apache.curator | receptek kurátortól | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | adatvázlatok-memória | 3.0.2 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop kliens futásideje | 3.4.1 |
| org.apache.hive | hive-beeline (eszköz) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-kliens | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde (sorozatok és deserializáció) | 2.3.10 |
| org.apache.hive | hive-shims (hive kiegészítő modulok) | 2.3.10 |
| org.apache.hive | hive-storage-api (hive tárolási API) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler (méhkas-behúzási-ütemező) | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | borostyánkő | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-elrendezés-sablon-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-formátum | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-illesztékek | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0,9,3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | célközönség megjegyzései | 0.13.0 |
| org.apache.zookeeper | állatkerti gondozó | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | ellenőr-képzettség | 3.43.0 |
| org.codehaus.janino | közösségi fordítóprogram | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-kontinuáció | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http (egy Java HTTP szerver implementáció) | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty webszerver | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty webalkalmazás | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-kommon | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-szerver | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi erőforrás-kereső | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-újracsomagolt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (Jersey konténer szervlet) | 2.41. |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41. |
| org.glassfish.jersey.core | jersey-ügyfél | 2.41. |
| org.glassfish.jersey.core | jersey-közös | 2.41. |
| org.glassfish.jersey.core | jersey-szerver | 2.41. |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41. |
| org.hibernate.validator | hibernate-validator (a Hibernate hitelesítő) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (naplózó rendszer) | 3.4.1.Végleges |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Széljegyzetek | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | teszt-interfész | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalameta | common_2.13 | 4.13.5 |
| org.scalameta | io_2.13 | 4.13.5 |
| org.scalameta | mdoc-parser_2.13 | 2.6.4 |
| org.scalameta | metaconfig-core_2.13 | 0.15.0 |
| org.scalameta | metaconfig-pprint_2.13 | 0.15.0 |
| org.scalameta | metaconfig-typesafe-config_2.13 | 0.15.0 |
| org.scalameta | parsers_2.13 | 4.13.5 |
| org.scalameta | skalafmt-config_2.13 | 3.9.6 |
| org.scalameta | skalafmt-core_2.13 | 3.9.6 |
| org.scalameta | scalafmt-macros_2.13 | 3.9.6 |
| org.scalameta | scalafmt-sysops_2.13 | 3.9.6 |
| org.scalameta | scalameta_2.13 | 4.13.5 |
| org.scalameta | trees_2.13 | 4.13.5 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest tesztelési keretrendszerrel kompatibilis | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | paiges-core_2.13 | 0.4.4 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl (nyílt forráskódú szoftver) | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Jótanács
Ha szeretné látni azoknak a Databricks Runtime-verzióknak a kiadási megjegyzéseit, amelyek elérték a támogatás megszűnését (EoS), tekintse meg a Támogatás megszűnéséhez kapcsolódó Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.