Megosztás:


Databricks Runtime 17.3 LTS

Az alábbi kibocsátási megjegyzések az Apache Spark 4.0.0 által működtetett Databricks Runtime 17.3 LTS-ről nyújtanak információkat.

Az Azure Databricks 2025 októberében adta ki ezt az LTS-verziót.

Új funkciók és fejlesztések

EXECUTE IMMEDIATE állandó kifejezések használata

Mostantól állandó kifejezéseket adhat át SQL-sztringként és argumentumként az utasítások paraméterjelölőinek EXECUTE IMMEDIATE .

LIMIT ALL rekurzív CTE-k támogatása

Mostantól LIMIT ALL eltávolíthatja a rekurzív gyakori táblakifejezésekre (CTE-k) vonatkozó teljes méretkorlátozást.

JDK 21 klasszikus számításhoz (nyilvános előzetes verzió)

A Java Development Kit (JDK) 21 nyilvános előzetes verzióban érhető el a klasszikus számításhoz. Az engedélyezéshez lásd: Fürt létrehozása egy adott JDK-verzióval.

A Unity Catalog-kötetekben lévő fájlokhoz való hozzáfűzés helyes hibát ad vissza

Minden olyan kód, amely tartalmat próbál hozzáfűzni egy Unity-katalógus kötetfájljához, "Illegális keresés" hibaüzenettel meghiúsul. Korábban helytelen "nem támogatott művelet" hibával meghiúsult.

TABLE argumentumok támogatása a Unity Catalog Python UDTF-jeihez

A Unity Catalog Python UDTF-jei mostantól támogatják TABLE az argumentumokat, így a függvények teljes táblákat fogadnak el bemeneti paraméterekként, így összetettebb adatátalakításokat és aggregációkat hozhatnak létre strukturált adathalmazokon. Lásd a Python felhasználó által definiált táblafüggvényeit (UDTF-eket) a Unity Catalogban. A táblaargumentumok támogatása vissza lett adva a Databricks Runtime 17.2-be.

st_dump függvénytámogatás

A függvény használatával st_dump mostantól lekérheti a bemeneti geometria egyetlen geometriáit tartalmazó tömböt. Lásd: st_dump függvény.

A sokszög belső gyűrűs függvények mostantól támogatottak

Mostantól a következő függvényekkel dolgozhat a sokszög belső gyűrűivel:

remote_query táblaértékű függvény (nyilvános előzetes verzió)

Mostantól a remote_query táblaértékű függvény használatával lekérdezéseket hajthat végre távoli adatbázismotorokon, és táblázatos eredményeket adhat vissza. Ez a függvény adatokat kér le távoli rendszerekből a Unity Catalog-kapcsolatok hitelesítő adataival, és támogatja az SQL- és NoSQL-adatbázisok különböző összekötői beállításait. Lásd remote_query táblaértékelt függvény.

Viselkedési változások

input_file_name függvény már nem támogatott, és a jövőben eltávolításra kerülhet

A input_file_name függvény elavult a Databricks Runtime 13.3 LTS óta, mert megbízhatatlan. A függvény már nem támogatott a Databricks Runtime 17.3 LTS és újabb verziókban, mert megbízhatatlan. Használja helyette a _metadata.file_name nevet .

Az automatikus betöltő növekményes listájának alapértelmezett beállítása megváltozott.

Az elavult cloudFiles.useIncrementalListing opció alapértelmezett értéke auto-ről false-re változott. Az Azure Databricks mostantól a növekményes listaelemek helyett teljes könyvtárlistákat hajt végre, hogy megakadályozza a kihagyott fájlokat a nem lexikográfiai rendezés miatt. Például 10-01-2025.csv lexikálisan előbbre kerül, mint 8-01-2025.csv.

A Databricks javasolja a fájleseményekre való migrálást a gyorsabb és megbízhatóbb fájlfelderítés érdekében.

Az előző viselkedés megőrzéséhez állítsa be explicit módon a cloudFiles.useIncrementalListing értéket a auto értékre.

MV/ST frissítési információk támogatása a következő helyen: DESCRIBE EXTENDED AS JSON

Az Azure Databricks most létrehoz egy szakaszt a materializált nézet és a streamelési tábla frissítési adataihoz a kimenetben, beleértve az utolsó frissítés időpontját, a frissítés típusát, az állapotot és az DESCRIBE EXTENDED AS JSON ütemezést.

Metaadat oszlop hozzáadása a DESCRIBE QUERY és DESCRIBE TABLE számára

Az Azure Databricks mostantól tartalmaz egy metaadatoszlopot a DESCRIBE QUERY és DESCRIBE TABLE kimenetében a szemantikai metaadatokhoz.

Ha DESCRIBE QUERYegy lekérdezést metrikanézetekkel ír le, akkor a szemantikai metaadatok a lekérdezésen keresztül propagálódnak, ha a dimenziókra közvetlenül hivatkoznak, és a mértékek a függvényt MEASURE() használják.

A DESCRIBE TABLEmetaadatok oszlopa csak metrikanézetek esetén jelenik meg, más táblatípusoknál nem.

Az időbeli érték konvertálásának javítása a strukturális konstansokban a Csatlakozás mód használatakor

Spark Connect módban a konstansok mostantól helyesen kezelik az TypedLit időértékeket ahelyett, hogy kivételeket dobnak. Korábban a struktúrák időértékeinek (például dátumok vagy időbélyegek) használata kivételt eredményezett.

Decimális pontosság és skálázás SYSTEM_DEFAULT módosítása Connect módban

Ha a Spark Connect módot használja Scala-ban, a tömb- és térképkonstansok decimális pontossága és skálázása mostantól (38, 18) értékre változik SYSTEM_DEFAULT. Ez a változás csak a logikai tervre (például a parancs kimenetére) van hatással, és nem befolyásolja a explain() lekérdezés eredményeit.

A Spark Connect Scala-ügyfél megfigyeléseinek összetett típusainak támogatása

A Spark Connect Scala-ügyfél mostantól támogatja a tömb-, térkép- és strukturálástípusokat a megfigyelésekben, így a viselkedés összhangban van a dedikált fürtökkel. Korábban az ilyen összetett típusok megfigyelésekben való használatának megkísérlése kivételt eredményezne.

Null értékek megőrzése tömbökben, leképezésekben és szerkezetkonstansokban

Spark Connect módban a tömbön, a térképen és a szerkezetkonstansokon belüli null értékek megmaradnak ahelyett, hogy a protobuf alapértelmezett értékeire cserélné őket. Korábban a null értékek helytelenül lettek lecserélve az alapértelmezett értékekre, például 0 egész számokra, sztringtípusok üres sztringjeire és false logikai típusokra.

A beírt literálok null értékének megőrzése

A Spark Connect Scala-ügyfél mostantól helyesen megőrzi a tömb- és térképtípusok érvénytelenségét a beírt literálok esetében. Korábban a tömbelemeket és a leképezési értékeket mindig null értékűként kezelték, függetlenül a tényleges típusdefiníciótól.

A case class konverzió javítása tömbökben és térképliterálokban

Spark Connect módban a tömb- és térképliterálok a TypedLit esetén mostantól helyesen kezelik a case osztály értékeit, és nem dobják ki a kivételeket. Korábban a tömb- vagy térképkonstansokban lévő esetosztályértékek használata kivételt eredményezne.

Null szerkezetek helyes kezelése oszlopok elvetésekor NullType

Delta-táblákba való íráskor az Azure Databricks mostantól helyesen megőrzi a null értékű struktúrákat, amikor elveti az oszlopokat a sémából NullType. Korábban a null szerkezeteket helytelenül cserélték le nem null értékű szerkezetértékekre, ahol az összes mező null értékűre lett állítva. Ha például egy null struct értéket szúr be, az később null mezőket tartalmazó struktúraként olvasható vissza a null struktúra helyett.

Null szerkezetek jobb kezelése a Parquetben

Az Azure Databricks most már helyesen észleli a null struccokat, ha az összes kért struccmező hiányzik egy Parquet-fájlból, ami konzisztenssé teszi a viselkedést a Photon és a nem Photon-olvasók között. Korábban a nem Foton-olvasók a teljes szerkezetre tértek vissza NULL null mezőkkel rendelkező struktúra helyett, amikor parquet-fájlokat olvasnak, ahol az összes kért mező hiányzik, de más mezők is jelen voltak.

A Kafka könyvtárának frissítése aws-msk-iam-auth

A aws-msk-iam-auth kódtár a 2.0.1-es verzióra lett frissítve, hogy támogassa az Apache Kafka (MSK) IAM-hitelesítéshez készült felügyelt streamelés regionális biztonsági jogkivonat-szolgáltatás (STS) végpontjának beállítását. Az új awsStsRegion beállítás csak akkor érhető el, ha a megfelelő Spark-konfiguráció engedélyezve van. Ez a frissítés nem vezet be viselkedési módosításokat a meglévő számítási feladatokhoz.

Könyvtárfrissítések

Frissített Python-kódtárak:

Ebben a verzióban nem frissítettek Python-kódtárakat.

Frissített R-kódtárak:

Ebben a verzióban nem frissítettek R-kódtárakat.

Frissített Java-kódtárak:

Ebben a verzióban nem lettek frissítve Java-kódtárak.

Apache Spark

A Databricks Runtime 17.3 LTS tartalmazza az Apache Spark 4.0.0-t. Ez a kiadás tartalmazza az előző verzióban szereplő összes Spark-javítást és fejlesztést, valamint a következőket:

  • SPARK-44856 "[SC-195808][python] A Python UDTF nyílszerializáló teljesítményének javítása"
  • SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Null értékek kezelése a LiteralValueProtoConverterben
  • SPARK-53507 Kompatibilitástörő változásadatok hozzáadása hibákhoz
  • SPARK-53574 Az AnalysisContext törlése a beágyazott tervfeloldás során
  • SPARK-53444 Az átdolgozás azonnali végrehajtása
  • SPARK-53560 Összeomlási ciklus a nem véglegesített köteg Kafka forrásban és AvailableNow trigger során való újrapróbálkozáskor
  • SPARK-53127 Az ALL engedélyezése LIMIT a rekurziós sorkorlát felülbírálásához
  • SPARK-53574 Visszavonás: "[SC-206548] Az AnalysisContext törlésének megakadályozása..."
  • SPARK-53674 Egyszeri átfutású elemző LCA-k kezelése aliasok hozzárendelésekor
  • SPARK-53492 Utasítsa el a második ExecutePlan-t, ha egy már befejezett műveletazonosítóval rendelkezik
  • SPARK-53677 A JDBC-adatforrás hibakeresésének javítása, ha a lekérdezés szintaxishibát tartalmaz
  • SPARK-53490 Protobuf-konverzió javítása a megfigyelt metrikákban
  • SPARK-53671 0-args kizárása az eval típusú következtetésből @udf
  • SPARK-53592 Átdolgozás "Tegye vektoros UDF támogatását @udf "
  • SPARK-53654 Az "uuid függvény seed támogatása" átdolgozása
  • SPARK-53429 Közvetlen átvitel particionálás támogatása a PySpark Dataframe API-ban
  • SPARK-53372 Megosztott tesztelési futtatókörnyezeti csomag LDP-hez
  • SPARK-53574 Az AnalysisContext törlése a beágyazott tervfeloldás során
  • SPARK-53654 Az "[SC-207022][sql][PYTHON] Támogatás visszavonása seed a függvényben uuid"
  • SPARK-53574 "Visszavonás: [SC-206548] A beágyazott tervfeloldás során törölt AnalysisContext javítása"
  • SPARK-53559 HLL-vázlatfrissítések javítása nyers rendezési kulcs bájtok használatával
  • SPARK-53654 Támogatás seed a függvényben uuid
  • SPARK-52449 Az Expression.Literal.Map/Array adattípusainak megadása nem kötelező
  • SPARK-53574 Az AnalysisContext törlése a beágyazott tervfeloldás során
  • SPARK-53625 Metaadatoszlopok propagálása előrejelzéseken keresztül az ApplyCharTypePadding inkompatibilitásának kezelése érdekében
  • SPARK-53558 Visszaállítás "[SC-206544][sql] Teljes táblanév megjelenítése, beleértve a katalógus nevét a kivétel üzenetében, ha a tábla nem található"
  • SPARK-53558 Teljes táblanév megjelenítése a katalógus nevével együtt a kivételüzenetben, ha a tábla nem található
  • SPARK-53357 Frissítés pandas a 2.3.2-hez
  • SPARK-52659Félrevezető modulo hibaüzenet ANSI módban
  • SPARK-53592 "[SC-206971][python] Visszaállítás: @udf támogatása a vektoros UDF számára"
  • SPARK-53592 A @udf támogatása a vektorizált UDF számára
  • SPARK-52601 Primitív típusok támogatása a TransformingEncoderben
  • SPARK-53355 javítás numpy 1.x repr típustesztekben
  • SPARK-53387 Támogatás hozzáadása a nyilat tartalmazó UDTF-ekhez a BY használatával PARTITION
  • SPARK-52991 Implementálás MERGE INTO az EVOLUTION for V2 adatforrással SCHEMA
  • SPARK-53568 Több kisebb hiba kijavítása a Spark Connect Python-ügyfél hibakezelési logikájában
  • SPARK-43579 optim: Gyorsítótárazza a konvertert a Arrow és a Pandas között az újrafelhasználáshoz
  • SPARK-53524 Az időértékek konvertálásának javítása a LiteralValueProtoConverterben
  • SPARK-53600 A legutóbbi hozzáférési idő naplóüzenetének módosítása SessionHolder
  • SPARK-53529 Az ügyfélkapcsolat javítása pyspark az IPv6 támogatására
  • SPARK-53537 Támogatás hozzáadása a CONTINUE HANDLER elemzéséhez
  • A SPARK-53623 javítja a nagy táblázattulajdonságok olvasási teljesítményét
  • SPARK-53523 Elnevezett paraméterek tiszteletben tartása spark.sql.caseSensitive
  • SPARK-53449 Egyszerűen a beépített adatforrás-vizsgálathoz kapcsolódó osztályok beállításai
  • SPARK-53620 A SparkSubmitnek stacktrace-et kell nyomtatnia az exitFn meghívásakor
  • SPARK-53518 Nincs csonkolás a felhasználó által definiált típusú catalogString esetében
  • SPARK-53568 "[SC-206538][connect][PYTHON] A Spark Connect Python-ügyfél hibakezelési logikájában található néhány kisebb hiba kijavítása"
  • SPARK-53602 Profilkép javítása és profilkészítői dokumentum javítása
  • SPARK-53402 A Direct Passthrough Partitioning Dataset API támogatása Spark Connectben Scalához
  • SPARK-53491 Az inputRowsPerSecond és a processedRowsPerSecond exponenciális formázásának javítása folyamatban lévő JSON-metrikákban
  • SPARK-53413 Shuffle tisztítás parancsokhoz
  • SPARK-53518 Visszavonás: "[SC-205989][sql] Nincs csonkolás a User Defined Type catalogString esetében"
  • SPARK-53568 Több kisebb hiba kijavítása a Spark Connect Python-ügyfél hibakezelési logikájában
  • SPARK-53552 Az substr SQL-függvény optimalizálása
  • SPARK-53527 Az analyzeExistenceDefaultValue tartalékainak javítása
  • SPARK-53584 A process_column_param érvényesítési és oszlopparaméter-dokumentáció továbbfejlesztése
  • SPARK-53498 Helyes hivatkozás pyspark/pipelines/cli.py binárisból spark-pipelines
  • SPARK-53518 Nincs csonkolás a felhasználó által definiált típusú catalogString esetében
  • SPARK-53233 A megfelelő csomagnév használatával kapcsolatos streaming kód létrehozása
  • SPARK-53598 Ellenőrizze a numParts meglétét a nagy táblatulajdonságok olvasása előtt
  • SPARK-53372 SDP– végpontok közötti tesztelési csomag
  • SPARK-53563 Optimalizálás: sql_processor a nem hatékony sztringösszefűzés elkerülésével
  • SPARK-53323 Spark Connect-tesztek engedélyezése a df.asTable() elemhez a Nyíl UDTF-ben
  • SPARK-53157 Vezérlő és végrehajtó lekérdezési időközeinek szétválasztása
  • SPARK-53555 Javítás: A SparkML-connect nem tudja betölteni a SparkML (örökölt mód) mentett modelljét
  • SPARK-53361 A JVM–Python kommunikáció optimalizálása TWS-ben több kulcs csoportosításával egy nyílkötegbe
  • SPARK-53233 Vonja vissza a "[SC-203716][sql][SS][mllib][CONNECT] Kód összetétele a megfelelő csomagnév használatának biztosítása érdekében" változtatást
  • SPARK-53233 A megfelelő csomagnév használatával kapcsolatos streaming kód létrehozása
  • SPARK-53525 Spark Connect ArrowBatch eredménytömb
  • SPARK-53444 Visszaállítás "[SC-206536][sql] Rework execute immediate"
  • SPARK-53594 Az Arrow UDF-ek tiszteletben tartják a felhasználók által megadott kiértékelési típust.
  • SPARK-53444 Az átdolgozás azonnali végrehajtása
  • SPARK-53582 Kiterjesztése isExtractable , hogy alkalmazható legyen a UnresolvedExtractValue
  • SPARK-53572 Kerülje el az ExtractValue.isExtractable dobását
  • SPARK-52346 Számláló inicializálásának és növelési logikájának javítása a folyamat újrakísérletezéseihez
  • SPARK-53561 Megszakítási kivételt felfogni a TransformWithStateInPySparkStateServerben az outputStream.flush hívásakor a feldolgozó összeomlásának elkerülése érdekében.
  • SPARK-53512 A DSv2 PushDownUtils jobb egyesítése
  • SPARK-53459 A ReadOnlySparkConf használata több helyen
  • SPARK-53549 A listaállapot-kérelem folyamatának befejezésekor mindig zárja be a nyílelosztót
  • SPARK-53332 StateDataSource engedélyezése a 2. állapot-ellenőrzőponttal (csak snapshotStartBatchId beállítás)
  • SPARK-53550 Az unió kimeneti particionálásának össze kell hasonlítania a kanonizált attribútumokat
  • SPARK-53506 Kizárás % a decimális és a lebegőpontos típusok között az ANSI szabvány szerint
  • SPARK-52238 Pipeline Spec Mező 'definíciók' átnevezése 'kódtárakra'
  • SPARK-53538ExpandExec inicializálnia kell a nem biztonságos előrejelzéseket
  • SPARK-53521 Csillagkifejezés átalakítása
  • SPARK-53358 Az arrow Python UDTF kimeneti típuskülönbségét jelző hibaüzenet javítása
  • SPARK-53531 Jobb hibaüzenet a HadoopRDD.getInputFormat szolgáltatáshoz
  • SPARK-53434 A ColumnarRow get metódusának ellenőriznie kell az isNullAt értéket is.
  • SPARK-53008 Hozzáadás: az OSS SQL UDF-adathozzáférési rutin ellenőrzése
  • SPARK-44856 A Python UDTF nyílszerializáló teljesítményének javítása
  • SPARK-53488 A CollationTypeCoercion frissítése, hogy kompatibilis legyen az egyátmenetes Analyzer-logikával
  • SPARK-53029 A Arrow Python UDTF-ek visszatérési típusának támogatása
  • SPARK-53479 Viselkedés igazítása == a pandashoz a skalárissal való összehasonlítás során az ANSI-ben
  • SPARK-53497 Tiltsa meg a decimális és a lebegőpontos érték közötti /|//|* az ANSI szerint
  • SPARK-53441 Bools |/&/^ Semmi nem lehet sikertelen az ANSI alatt
  • SPARK-53474 Conf DATA_SOURCE_V2_EXPR_FOLDING hozzáadása
  • SPARK-53333 A StateDataSource engedélyezése az állapotellenőrzési pont v2-vel (csak readChangeFeed)
  • SPARK-53502 Metódusok elnevezésének javítása a LiteralValueProtoConverterben
  • SPARK-52694 API hozzáadása o.a.s.sql.Encoders#udt
  • SPARK-53499 from_arrow_type figyelembe kell venni az ArrayType-ban található ContainsNull értéket
  • SPARK-53515 A nem használt private lazy val eltávolítása a SchemaOfCsv/Xml
  • SPARK-53480 Arrow Python futtatókód átszervezése
  • SPARK-53481 Hibrid sorosztály létrehozása
  • SPARK-53401 Közvetlen átengedés particionálásának engedélyezése a DataFrame API-ban
  • SPARK-52930 DataType.Array/Map használata tömbhöz/térképkonstansokhoz
  • SPARK-52346 Partícióoszlopok propagálása a BatchTableWrite célhelyéről
  • SPARK-53342 Nyílkonverter javítása több rekordköteg kezeléséhez egyetlen IPC-streamben
  • SPARK-53421 Logikai terv azonosítójának propagálása az SDP-elemzésben
  • SPARK-53408 A nem használt függvények eltávolítása a QueryCompilationErrors
  • SPARK-53044 Deklaratív folyamatok importálási alias-konvenciójának módosítása "sdp" értékről "dp" értékre
  • SPARK-53450 A null értékek váratlanul pótlásra kerülnek, miután a hive táblázat lekérdezést logikai kapcsolattá konvertálják.
  • SPARK-53290 Metaadatok visszamenőleges kompatibilitását megszakító hiba javítása
  • SPARK-52982 Oldalirányú illesztés letiltása Arrow Python UDTF-ekkel
  • SPARK-52851 Nyilvános API-k eltávolítása az egyszeri hozzáfűzési folyamatokhoz
  • SPARK-52511 Száraz futtatási mód támogatása a Spark-Pipelines parancsban
  • SPARK-53290 Visszaállítás: "[SC-204277][sql][CONNECT] Metaadatok visszamenőleges kompatibilitását törő javítás"
  • SPARK-53290 Metaadatok visszamenőleges kompatibilitását megszakító hiba javítása
  • SPARK-52577 Tesztek hozzáadása a Deklaratív folyamatok adatkészlet-kezelőhöz a Hive-katalógussal
  • SPARK-53012 Az Arrow Python UDTF támogatása a Spark Connectben
  • SPARK-53251 DataFrame API-tesztelés engedélyezése a Arrow Python UDTF-ekhez készült AsTable() használatával
  • SPARK-52432 Határozza meg a DataflowGraphRegistry kereteit a munkamenethez
  • SPARK-52853 Imperatív PySpark-metódusok megakadályozása deklaratív folyamatokban
  • SPARK-52745 Győződjön meg arról, hogy az egyik schema vagy columns a Tábla felületen implementálva van, és columns előnyösebb
  • SPARK-52991 Revert "[SC-204944][sql] Implementál MERGE INTO az EVOLUTION a SCHEMA V2 Adatforráshoz"
  • SPARK-52981 Táblaargumentum-támogatás hozzáadása a Arrow Python UDTF-ekhez
  • SPARK-53487 Javítsa meg a megjegyzéseket a következőben: NormalizePlan.scala
  • SPARK-52991 Implementálás MERGE INTO az EVOLUTION for V2 adatforrással SCHEMA
  • SPARK-52281 Módosítsa ALTER TABLE ALTER COLUMN TYPE STRING úgy, hogy ne alkalmazza az alapértelmezett rendezést, ha az eredeti adattípus a StringType
  • SPARK-52759 Kivétel kioltása, ha a folyamat nem rendelkezik táblák vagy megőrzött nézetekkel
  • SPARK-51575 Python-adatforrás-leképzés és olvasómunkás-tervezés
  • SPARK-53359 Az Arrow UDTF javítása az eredmények iterátorként történő kezelésére
  • SPARK-52757 A DefineFlow "plan" mezőjének átnevezése "relációra"
  • SPARK-52431 Befejező simítások a Deklaratív modulok futtatóján
  • SPARK-52591 Az SDP-tábla és az önálló folyamatdefiníciók által visszaadott DF-k folyamatosságának ellenőrzése
  • SPARK-53030 Támogatás az Arrow író számára Python adatforrások streameléséhez
  • SPARK-52980 Arrow Python UDTF-ek támogatása
  • SPARK-42841Név hozzárendelése a _LEGACY_ERROR_TEMP_2005 hibaosztályhoz
  • SPARK-52423 Hiányzó golang-csomagnév hozzáadása a pipelines.proto fájlhoz
  • SPARK-52409 Csak a PipelineRunEventBuffer használata tesztekben
  • SPARK-52533 Csak az illesztőprogram-profiler engedélyezésének támogatása
  • SPARK-52716 Megjegyzés eltávolítása a Flow-tulajdonságokból és -hivatkozásokból
  • SPARK-52348 Spark Connect-kezelők támogatása folyamatparancsokhoz
  • SPARK-52281 Visszaállítás "[SC-198058][sql] Módosítás úgy, hogy ALTER TABLE ALTER COLUMN TYPE STRING ne alkalmazza az alapértelmezett rendezést, ha az eredeti adattípus példánya StringType volt"
  • SPARK-49386 Memóriaalapú küszöbértékek hozzáadása az elfojtásos kiömléshez
  • SPARK-52281 Módosítsa ALTER TABLE ALTER COLUMN TYPE STRING úgy, hogy ne alkalmazza az alapértelmezett rendezést, ha az eredeti adattípus a StringType
  • SPARK-53329 A kivételkezelés javítása összetevők hozzáadásakor
  • SPARK-52772 Visszavonás "[SC-202707][engrm-327][SQL] Inkonzisztens táblaattribútum-kezelés a frissítések során"
  • SPARK-52772 Inkonzisztens táblaattribútumok kezelése a frissítések során
  • SPARK-51739 Nyílséma érvényesítése a mapInArrow &mapInPandas &Adatforrásból
  • SPARK-53355 python udf-típus viselkedésének tesztelése
  • SPARK-53443 Python frissítése SPDX-license
  • SPARK-49968 A felosztott függvény helytelen eredményeket eredményez üres regextel és korláttal
  • SPARK-52582 Az XML-elemző memóriahasználatának javítása
  • SPARK-53452from_arrow_type tiszteletben kell tartani valueContainsNull
  • SPARK-53103 "[SC-204946][ss] Hibajelzés, ha az állapotkönyvtár nem üres a lekérdezés indításakor"
  • SPARK-53103 Hibajelzés, ha az állapotkönyvtár nem üres a lekérdezés indításakor
  • SPARK-51575 "[SC-192406][python] Python-adatforrások leküldésének visszaállítása és az olvasási feldolgozók tervének visszaállítása"
  • SPARK-51575 Python-adatforrás-leképzés és olvasómunkás-tervezés
  • SPARK-53095 A HMS v4.1 támogatása
  • SPARK-53126 Átalakítás SparkErrorUtils#stackTraceToString a null bemenet kezelésére és annak ExceptionUtils#getStackTrace cseréjére használata
  • SPARK-49489 HMS-ügyfél tiszteletben tartása hive.thrift.client.maxmessage.size
  • SPARK-53108 A time_diff függvény implementálása a Scalában
  • SPARK-45265 A Hive 4.0 metaadattára támogatása
  • SPARK-53255 Kitiltás org.apache.parquet.Preconditions
  • SPARK-52142 Táblakorlátozások megjelenítése a COMMAND-ben SHOW CREATE TABLE
  • SPARK-52875 A V2-kifejezésfordítás egyszerűsítése, ha a bemenet környezetfüggetlen-összecsukható
  • SPARK-53240 Tilalom com.google.common.collect.(ArrayList)?Multimap
  • SPARK-52875 "[SC-201880][sql] A V2-kifejezések fordításának egyszerűsítése, ha a bemenet környezetfüggetlen-összecsukható"
  • SPARK-52141 Korlátozások megjelenítése a DESC-parancsokban
  • SPARK-53386 A JDBC-összekötőkben pontosvesszővel végződő lekérdezési paraméter támogatása
  • SPARK-52875 A V2-kifejezésfordítás egyszerűsítése, ha a bemenet környezetfüggetlen-összecsukható
  • SPARK-53437 Az InterpretedUnsafeProjection-nek a setNull4Bytes-t kell beállítania a YearMonthIntervalType mezőhöz.
  • SPARK-53341 A többváltozós DECLARE tesztlefedettségének bővítése
  • SPARK-53156 Az illesztőprogram memóriametrikáinak nyomon követése az alkalmazás befejeződésekor
  • SPARK-52689 DML-metrikák küldése a V2Write-be
  • SPARK-52641 Az elsődleges kulcsoszlopok nem lehetnek null értékűek
  • SPARK-48547 Opcionális jelző hozzáadása a SparkSubmithez, hogy a user code fő metódusának kilépése után automatikusan hívja a System.exit-et.
  • SPARK-52575 A contextIndependentFoldable attribútum bemutatása kifejezésekhez
  • SPARK-52860 V2 írási séma fejlődésének támogatása az InMemoryTable-ban
  • SPARK-53435 Versenyállapot javítása a CachedRDDBuilderben
  • SPARK-51987 DSv2 kifejezések alkalmazása alapértelmezett oszlopértékeknél adatíráskor
  • SPARK-52235 Implicit cast hozzáadása a DSV2-nek átadott DefaultValue V2-kifejezésekhez
  • SPARK-52236 Az alapértelmezett értékek elemzési kivételeinek standardizálása
  • SPARK-53294 StateDataSource engedélyezése az állapotellenőrzési pont v2-vel (csak batchId opció)
  • SPARK-52095 Az táblázat átalakítása során az oszlop módosításával adjuk át a V2Expression-t a DSV2-nek.
  • SPARK-53415 Egyszerűen a beépített FileFormats beállításai
  • SPARK-53318 Az időtípus támogatása make_timestamp_ltz() szerint
  • SPARK-53143 Az önillesztés javítása a DataFrame API-ban – Az illesztés nem az egyetlen várt kimenet az elemzőtől
  • SPARK-53423 Az egyáteresztő feloldóval kapcsolatos címkék áthelyezése a következőre: ResolverTag
  • SPARK-52116 A nem determinisztikus alapértelmezett értékek kivételének javítása
  • SPARK-51906 Az alter tábla Dsv2-kifejezései oszlopokat adnak hozzá
  • SPARK-53403 Összeadás/kivonás tesztek javítása az ANSI szabvány szerint
  • SPARK-53418 Támogatás a következőben TimeType : ColumnAccessor
  • SPARK-52777 Az shuffle cleanup mód konfigurációjának engedélyezése a Spark SQL-ben
  • SPARK-52485 Deklaratív adatcsatornák kódkarbantartása
  • SPARK-53236 Használjon Java-konstruktorokat Java-kódban ArrayListLists.newArrayList helyett
  • SPARK-53392 SpecializedArray kezelés áthelyezése a connect-common modulba
  • SPARK-53176 A Spark-indítónak tiszteletben kell tartania --load-spark-defaults
  • SPARK-53237 Használj Java-t Base64 a példány helyett org.apache.commons.codec.binary.Base64
  • SPARK-53390 Hibajelzés, amikor a None értéket tartalmazó logikai értékek átalakítása ANSI alatt egész számokra történik
  • SPARK-53109 TIME típus támogatása a make_timestamp_ntz és try_make_timestamp_ntz függvényekben a Scala nyelvben
  • SPARK-53393 Arrow skaláris iterátor UDF-ek memóriaprofilozójának letiltása
  • SPARK-53367 – Int típus hozzáadása az Arrow UDF-ekhez tartozó decimális típusú kényszerítéshez
  • SPARK-53365 Kód egységesítése a nézetekben és az UDF-ekben lévő konfigurációk megőrzéséhez
  • SPARK-53228 Java-konstruktorok Map használata ahelyett, hogy Maps.new*HashMap()
  • SPARK-53197 Használja java.util.Objects#requireNonNull helyett com.google.common.base.Preconditions#checkNotNull
  • SPARK-53216 Ugrás is*(Blank|Empty) ide object SparkStringUtils : trait SparkStringUtils
  • SPARK-53385 Azonosító újrabontása – kiértékelés
  • SPARK-53384 Változófelbontás újrabontása
  • SPARK-53195 Java használata ahelyett, hogy InputStream.readNBytesByteStreams.read
  • SPARK-53205 Támogatás a következőben createParentDirs : SparkFileUtils
  • SPARK-53196 Java használata ahelyett, hogy OutputStream.nullOutputStreamByteStreams.nullOutputStream
  • SPARK-53381 Kerülje az ideiglenes gyűjtemények létrehozását a következő helyen: toCatalystStruct
  • SPARK-53275 Állapotalapú kifejezések kezelése értelmezett módban történő rendezéskor
  • SPARK-51585 Az Oracle dialektus támogatja az időadat-függvények pushdown műveleteit.
  • SPARK-53200 Java használata Files.newInputStream helyett Files.asByteSource().openStream()
  • SPARK-53190 Java használata ahelyett, hogy InputStream.transferToByteStreams.copy
  • SPARK-53188 Támogatás readFully a SparkStreamUtils és JavaUtils
  • SPARK-53354 A LiteralValueProtoConverter.toCatalystStruct egyszerűsítése
  • SPARK-52873 További korlátozás, amikor az SHJ semi/anti csatlakozás figyelmen kívül hagyhatja a duplikált kulcsokat a build oldalán
  • SPARK-53180 Használj Java-t ahelyett, hogy InputStream.skipNBytesByteStreams.skipFully
  • SPARK-53369 A visszatérési típussal rendelkező UDF-ek hibaüzenetének CHAR/VARCHAR javítása
  • SPARK-53330 Fix Arrow UDF a DayTimeIntervalType típusával (korlátok != kezdés/vég).
  • SPARK-53366 Formázási szabályok alkalmazása sql/connect/shims esetén
  • SPARK-53348 Mindig őrizze meg az ANSI értéket egy nézet létrehozásakor, vagy feltételezze lekérdezéskor, ha nincs tárolva.
  • SPARK-53119 Támogatás a következőben touch : SparkFileUtils
  • SPARK-52592 Ps létrehozásának támogatása. Sorozat egy ps.-ből. Sorozat
  • SPARK-53360 A stratégia, amely magában foglalja a ConstantFolding idempotenciáját, egyszeri alkalmazáskor nem törhet meg.
  • SPARK-53135 Támogatás copyURLToFile a következőben: SparkFileUtilsJavaUtils
  • SPARK-53150 Fejlesztés list(File|Path)s a nem létező, nem címtár alapú, szimlink bemenetek kezeléséhez
  • SPARK-53135 Visszavon "[SC-203164][core][SQL] Támogatás copyURLToFileSparkFileUtils és JavaUtils"
  • SPARK-53137 Támogatás forceDeleteOnExit és SparkFileUtils számára JavaUtils
  • SPARK-53352 A nem támogatott visszatérési típus hibaüzenetének pontosítása
  • SPARK-53353 Skaláris Iterátor Arrow felhasználó által meghatározott függvény 0 argumentummal való hibája
  • SPARK-53135 Támogatás copyURLToFile a következőben: SparkFileUtilsJavaUtils
  • SPARK-53101 Támogatás a következőben (left|right)Pad : SparkStringUtils
  • SPARK-53117 Támogatás moveDirectory között SparkFileUtils és JavaUtils
  • SPARK-53121 Használja deleteRecursively helyett FileUtils.forceDelete
  • SPARK-53100 Java helyett String.substring használata StringUtils.substring
  • SPARK-53092 Tilalom org.apache.commons.lang3.SystemUtils
  • SPARK-53328 A SparkML-connect hibakeresésének javítása
  • SPARK-52065 Egy másik tervfa előállítása kimeneti oszlopokkal (név, adattípus, nullérzékenység) a tervmódosítások naplózásában
  • SPARK-51182 A DataFrameWriternek a dataPathNotSpecifiedError értéket kell dobnia, ha nincs megadva elérési út
  • SPARK-52410 Érvénytelenítés PipelineConf majd közvetlen használat SqlConf
  • SPARK-52852 A nem használt spark_conf eltávolítása a create_streaming_table
  • SPARK-52714 A nem használt megjegyzés arg eltávolítása append_flow dekorátorban
  • SPARK-52663 Névmező bevezetése a folyamat specifikációihoz
  • SPARK-53091 Tilalom org.apache.commons.lang3.Strings
  • SPARK-52393 Folyamat SQL graf elem regisztrálása
  • SPARK-52912 Javítás SparkStringUtils a támogatás érdekében is(Not)?(Blank|Empty)
  • SPARK-53307 RetriesExceeded hiba eltávolítása a Spark Connect Python- és Scala-ügyfelektől
  • SPARK-52346 Deklaratív folyamat DataflowGraph végrehajtása és eseménynaplózása
  • SPARK-52877 A Python UDF-nyíl szerializáló teljesítményének javítása
  • SPARK-51920 Összetett/beágyazott típus javítása az értékállapotra vonatkozóan a Python TWS-ben
  • SPARK-52741 A RemoveFiles ShuffleCleanup mód nem működik nem adaptív végrehajtással
  • SPARK-52238 Python-ügyfél deklaratív folyamatokhoz
  • SPARK-51926 INVALID_CONF_VALUE.subXXX hibaosztály hozzáadása a konfigurációs hibákhoz.
  • SPARK-53155 A globális alacsonyabb agregáció nem helyettesíthető projekttel
  • SPARK-52911 A használat eltávolítása StringUtils.(split|chop)
  • SPARK-51926 Visszavonás "[SC-195096][core][SQL] INVALID_CONF_VALUE.subXXX hibaosztály hozzáadása a konfigurációs hibákhoz"
  • SPARK-53346 Ne hozzon létre ideiglenes gyűjteményeket a toCatalystArray/toCatalystMap alkalmazásban
  • SPARK-51926 INVALID_CONF_VALUE.subXXX hibaosztály hozzáadása a konfigurációs hibákhoz.
  • SPARK-53136 tryWithResource &tryInitializeResource csendesen bezárja az erőforrást
  • SPARK-53132 Támogatás list(File|Path)s a SparkFileUtils és JavaUtils esetében
  • SPARK-51896 Java Enum-támogatás hozzáadása TypedConfigBuilderhez
  • SPARK-53311 A PullOutNonDeterministic canonicalized kifejezéseket használja
  • SPARK-51527 A kodekgen naplószintje konfigurálhatóvá tétele az SQLConf használatával
  • SPARK-52223 SDP Spark Connect Protos hozzáadása
  • SPARK-52283 Deklaratív csővezetékek létrehozása és feloldása
  • SPARK-52880 Javítsuk toString ahelyett, hogy JEP-280ToStringBuilder
  • SPARK-53284 A Spark-konfiguráció importálásának módosítása tesztekben
  • SPARK-53050 Az MultiIndex.to_series() engedélyezése az egyes bejegyzések szerkezetének visszaadásához
  • SPARK-52988 A versenyhelyzetek javítása a CREATE TABLE és a FUNKCIÓ esetében, ha HA NEM LÉTEZIK van használva.
  • SPARK-52874 Java-rekord támogatása o.a.s.util.Pair
  • SPARK-52710DESCRIBE SCHEMA nyomtatni kell a rendezést
  • SPARK-49984 Javítás supplementJava(Module|IPv6)Options csak frissítéshez extraJavaOptions

Az Azure Databricks ODBC/JDBC-illesztőprogram támogatása

A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).

Karbantartási frissítések

Lásd a Databricks Runtime karbantartási frissítéseit.

Rendszerkörnyezet

  • Operációs rendszer: Ubuntu 24.04.3 LTS
  • Java: Zulu17.58+21-CA
  • Scala: 2.13.16
  • Python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Telepített Python-kódtárak

Könyvtár verzió Könyvtár verzió Könyvtár verzió
széljegyzetes típusok 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 nyíl 1.3.0 asttokens 2.0.5
astunparse 1.6.3 Aszinkron-LRU 2.0.4 attribútumok 24.3.0
automatikus parancs 2.2.2 azure-common 1.1.28 azure-core 1.34.0
azure-identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web (web kezelési modul az Azure-hoz) 8.0.0
Azure-tároló-blob 12.23.0 Azure-tároló-fájl-adattó (Azure Storage File Data Lake) 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 fekete 24.10.0
fehérítő 6.2.0 villogó 1.7.0 boto3 1.36.2
botocore 1.36.3 Gyorstár-eszközök 5.5.1 tanúsítvány 2025.01.31
cffi 1.17.1 Chardet 4.0.0 karakterkészlet-normalizáló (charset-normalizer) 3.3.2
kattintás 8.1.7 Cloudpickle 3.0.0 kommunikáció 0.2.1
ContourPy 1.3.1 kriptográfia 43.0.3 biciklista 0.11.0
Cython 3.0.12 databricks SDK 0.49.0 dbus-python 1.3.2
debugpy hibakereső eszköz 1.8.11 dekorátor 5.1.1 defusedxml 0.7.1
Deprecated 1.2.13 distlib 0.3.9 docstring Markdown-formátummá alakítása 0.11
Végrehajtó 0.8.3 aspektusok áttekintése 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 fájlzárolás 3.18.0 betűtípusok 4.55.3
FQDN 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 Google-autentikáció 2.40.0
google-cloud-core (Google felhő mag) 2.4.3 Google felhőtárhely 3.1.0 google-crc32c 1.7.1
google-resumable-media (Google újraindítható média) 2.7.2 googleapis-közös-protokollok 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 Idna 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 ragoz 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
izodátum 0.6.1 izoduráció 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
jsonschema-specifikációk 2023.07.01. jupyter-események 0.10.0 jupyter-lsp 2.2.0
jupyter_kliens 8.6.3 jupyter_core 5.7.2 jupyter_server (Jupyter kiszolgáló) 2.14.1
jupyter szerver terminálok 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
JupyterLab-widgetek 1.0.0 jupyterlab_szerver 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
félhangol 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-kiterjesztések 1.3.1
mypy kiterjesztések 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
jegyzetfüzet 7.3.2 notebook-shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-szemantikai-konvenciók 0,53b1 Felülbírálja 7.4.0 csomagolás 24,2
Pandák 2.2.3 pandocfilters 1.5.0 parso 0.8.4
útvonal specifikáció (pathspec) 0.10.3 bűnbak 1.0.1 pexpect 4.8.0
párna 11.1.0 pipa 25.0.1 Platformdirs 3.10.0
ábrázolás 5.24.1 csatlakozós 1.5.0 prometheus_client 0.21.0
prompt-toolkit: parancssori eszközkészlet 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.71 pycparser (C és C++ fájlok feldolgozására szolgáló parser) 2.21
pydantic (egy Python könyvtár) 2.10.6 pydantic_core 2.27.2 pyflakes (egy program vagy eszköz neve) 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc (Python ODBC interfész) 5.2.0 pyparsing (egy Python könyvtár a szövegelemzéshez) 3.2.0
pyright 1.1.394 pytest 8.3.5 python-dateutil Szoftver verzió: 2.9.0.post0
Python JSON naplózó 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-server 1.12.0
pytool konfiguráció 1.2.6 pytz (egy Python könyvtár az időzóna számításokhoz) 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 Hivatkozás 0.30.2 requests 2.32.3
rfc3339-validator 0.1.4 RFC3986-érvényesítő 0.1.1 gazdag 13.9.4
kötél 1.12.0 rpds-py 0.22.3 Rsa 4.9.1
s3transfer 0.11.3 scikit-learn (egy Python gépi tanulási könyvtár) 1.6.1 scipy (tudományos és műszaki számítási Python könyvtár) 1.15.1
tengerben született 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
hat 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortedcontainers 2.4.0 levesszűrő 2.5 sqlparse 0.5.3
ssh-import-id 5.11 halmaz adatok 0.2.0 Starlette 0.46.2
statsmodels - statisztikai szoftvercsomag 0.14.4 strictyaml 1.7.3 Kitartás 9.0.0
befejezett 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 tornado 6.4.2
jellemzők 5.14.3 típusőrző 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions (gépelési kiterjesztések) 4.12.2 tzdata 2024.1 ujson (JSON-kezelő könyvtár a Pythonban) 5.10.0
felügyelet nélküli frissítések 0,1 uri-sablon 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webszínek 24.11.1 webkódolások 0.5.1
websocket-klient 1.8.0 Mi a javítás? 1.0.2 wheel 0.45.1
widgetsnbextension 3.6.6 becsomagolva 1.17.0 yapf 0.40.2
cipzár 3.21.0

Telepített R-kódtárak

Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2025-03-20-án.

Könyvtár verzió Könyvtár verzió Könyvtár verzió
nyíl 19.0.1 jelszókérés 1.2.1 Meggyőződj arról, hogy 0.2.1
háttérportolások 1.5.0 alapkép 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 bit 64 4.6.0-1
bitops 1.0-9 blob 1.2.4 boot - rendszerindítás 1.3-30
sört főz 1.0-10 Brio 1.1.5 seprű 1.0.7
bslib 0.9.0 gyorsítótár 1.1.0 hívásindító 3.7.6
caret 7.0-1 cellranger 1.1.0 kronométer 2.3-62
osztály 7.3-22 CLI 3.6.5 Clipr 0.8.0
óra 0.7.2 fürt 2.1.6 kódolási eszközök 0.2-20
színterület 2.1-1 commonmark 1.9.5 fordítóprogram 4.4.2
config 0.3.2 ellentmondásos 1.2.0 cpp11 0.5.2
crayon 1.5.3 azonosító adatok 2.0.2 göndörít 6.4.0
adat.táblázat 1.17.0 adatkészletek 4.4.2 DBI 1.2.3
dbplyr 2.5.0 Leírás 1.4.3 devtools 2.4.5
diagram 1.6.5 diffobj 0.3.5 kivonat 0.6.37
lefelé irányított világítású 0.4.4 dplyr (adatmanipulációs csomag az R programozási nyelvhez) 1.1.4 dtplyr 1.3.1
e1071 1.7-16 három pont 0.3.2 kiértékel 1.0.3
rajongók 1.0.6 színek 2.1.2 gyorstérkép 1.2.0
fontawesome 0.5.3 elveszettek 1.0.0 foreach 1.5.2
külföldi 0.8-86 kovácsol 0.2.0 fs 1.6.5
jövő 1.34.0 jövő.alkalmaz 1.11.3 gargarizál 1.5.2
általánosítás 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globálisok 0.18.0 ragasztó 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower-hegység 1.0.2
grafika 4.4.2 grDevices 4.4.2 rács 4.4.2
gridExtra 2.3 gsubfn 0.7 gt 0.11.1
gtable 0.3.6 védősisak 1.4.1 kikötő 2.5.4
magasabb 0.11 HMS 1.1.3 HTML-eszközök 0.5.8.1
HTML-widgetek 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 Azonosítók 1.0.1 ini 0.3.1
iPred 0.9-15 izoband 0.2.7 iterátorok 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1,50 címkézés 0.4.3
később 1.4.1 rácsszerkezet 0.22-5 láva 1.8.1
életciklus 1.0.4 hallgatás 0.9.1 lubridate 1.9.4
magrittr 2.0.3 Markdown 1.13 Tömeg 7.3-60.0.1
Mátrix 1.6-5 memorizálás 2.0.1 módszerek 4.4.2
mgcv 1.9-1 pantomimázás 0,13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 modellező 0.1.11
munsell 0.5.1 nlme 3.1-164 nnet 7.3-19
„numDeriv” 2016. augusztus - 1.1 openssl (nyílt forráskódú titkosító szoftver) 2.3.3 párhuzamos 4.4.2
párhuzamosan 1.42.0 pillér 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 csomag betöltése 1.4.0
plogr 0.2.0 plyr 1.8.9 dicséret 1.0.0
prettyunits 1.2.0 pROC 1.18.5 Processx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 haladás 1.2.3
progressr 0.15.1 ígéretek 1.3.2 Próto 1.0.0
közvetít 0.4-27 P.S. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 véletlen erdő (randomForest) 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer (egy szoftvercsomag neve) 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 reakcióképes 0.4.4
reactR 0.6.1 Readr 2.1.5 readxl (Excel fájlokat olvasó programcsomag) 1.4.5
Receptek 1.2.0 Visszavágó 2.0.0 visszavágó2 2.1.2
Távvezérlők 2.5.0 megismételhető példa 2.1.1 újraformázás2 1.4.4
rlang 1.1.6 rmarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
változatok 2.1.2 Szüret 1.0.4 Sass 0.4.9
mérlegek 1.3.0 szelekciós eszköz 0.4-2 munkamenet-információk 1.2.3
alakzat 1.4.6.1 Fényes 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
térbeli 7.3-17 splinek 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 statisztika 4.4.2 statisztikák4 4.4.2
string 1.8.7 stringr 1.5.1 túlélés 3.5-8
magabiztosság 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
Tcl/Tk programozási nyelv és eszközkészlet. 4.4.2 testthat 3.2.3 szövegformázás 1.0.0
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 időváltás 0.3.0 idődátum 4041.110
tinytex 0.56 eszközök 4.4.2 tzdb 0.5.0
URL-ellenőrző 1.0.1 ezt használd 3.1.0 utf8 1.2.6
segédprogramok 4.4.2 univerzálisan egyedi azonosító (UUID) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 bruum 1.6.5
Waldo 0.6.1 szőrszál 0.4.1 valamivel 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 YAML (adat-szerializációs formátum) 2.3.10 zeallot 0.1.0
zip fájl 2.3.2

Telepített Java- és Scala-kódtárak (Scala 2.13 klaszterverzió)

Csoportazonosító A tárgy azonosítója verzió
ANTLR (Egy másik eszköz a nyelvi felismeréshez) ANTLR (Egy másik eszköz a nyelvi felismeréshez) 2.7.7
com.amazonaws Amazon Kinesis kliens 1.12.0
com.amazonaws AWS Java SDK - Automatikus Skálázás 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config (AWS Java SDK konfiguráció) 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws AWS Java SDK importexport modul 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms (Amazon Web Services Java SDK KMS) 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-gépi tanulás 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws AWS Java SDK Támogatás 1.12.638
com.amazonaws aws-java-sdk-swf könyvtárak 1.11.22
com.amazonaws aws-java-sdk-munkaterületek 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics adatfolyam 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java (Databricks Java SDK) 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-árnyékolt 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml osztálytárs 1.5.1
com.fasterxml.jackson.core jackson-annotációk 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor (adatformátum CBOR) 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype Jackson adattípus - Joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.koffein koffein 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib Java natív hivatkozás 1.1
com.github.fommil.netlib Java natív hivatkozás 1.1-őslakosok
com.github.fommil.netlib natív rendszer-java 1.1
com.github.fommil.netlib natív rendszer-java 1.1-őslakosok
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-őslakosok
com.github.fommil.netlib netlib-natív_rendszer-linux-x86_64 1.1-őslakosok
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone hibára hajlamos annotációk 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava hozzáférési hiba 1.0.2
com.google.guava guáva 33.4.0-jre
com.google.guava hallgatható jövő 9999.0-üres-az-ütközés-elkerülése-miatt-guava-val
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profilkészítő 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi forráskód_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf (kompressziós algoritmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl (JAXB implementáció) 2.2.11
com.tdunning JSON formátum 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lencsék_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-elemzők 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
„commons-codec” „commons-codec” 1.17.2
commons-collections (közös gyűjtemények könyvtár) commons-collections (közös gyűjtemények könyvtár) 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-fájlfeltöltés Commons-fájlfeltöltés 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
közös naplózás közös naplózás 1.1.3
közös medence közös medence 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib LAPACK 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift légkompresszor 2.0.2
io.delta delta-sharing-client_2.13 1.3.5
io.dropwizard.metrics metrikák annotációja 4.2.30
io.dropwizard.metrics metrikai magrész 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics mutatók-egészségügyi ellenőrzések 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics Metrics-JMX 4.2.30
io.dropwizard.metrics metrics-json (metrikák JSON formátumban) 4.2.30
io.dropwizard.metrics JVM-metrikák 4.2.30
io.dropwizard.metrics Metrikai szervletek 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all csomag 4.1.118.Final
io.netty Netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty Netty HTTP kodek 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-zokni 4.1.118.Final
io.netty netty-közös 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static Verziószám: 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-osztályok 2.0.70.Final
io.netty Netty-transport 4.1.118.Final
io.netty netty-szállítási-osztályok-epoll 4.1.118.Final
io.netty Netty szállítási osztályok - kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common (Unix-alapú közös natív szállítás) 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus egyszerűkliens_általános 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway (egyszerű kliens tolókapu) 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus egyszerűgaming_kliens_szervlet_általános 0.16.1-databricks
io.prometheus egyszerű kliens nyomkövető közös 0.16.1-databricks
io.prometheus egyszerűkliens_nyomkövető_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx gyűjtő 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktiválás 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
Javolution Javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine savanyított zöldség 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv (egy CSV-fájlokat kezelő könyvtár) 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-szoftverfejlesztőkészlet (SDK) 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea TávoliTea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr karakterláncsablon 3.2.1
org.apache.ant hangya 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow nyíl alakú formátum 18.2.0
org.apache.arrow nyíl memóriaegység 18.2.0
org.apache.arrow Arrow-Memória-Netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-korrekció 18.2.0
org.apache.arrow irányvektor 18.2.0
org.apache.avro Avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-kollekciók4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text (közös szöveg) 1.13.0
org.apache.curator kurátor-ügyfél 5.7.1
org.apache.curator kurátor-keretrendszer 5.7.1
org.apache.curator receptek kurátortól 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches adatvázlatok-memória 3.0.2
org.apache.derby derbi 10.14.2.0
org.apache.hadoop hadoop kliens futásideje 3.4.1
org.apache.hive hive-beeline (eszköz) 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-kliens 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde (sorozatok és deserializáció) 2.3.10
org.apache.hive hive-shims (hive kiegészítő modulok) 2.3.10
org.apache.hive hive-storage-api (hive tárolási API) 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler (méhkas-behúzási-ütemező) 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy borostyánkő 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-elrendezés-sablon-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc orc-formátum 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc orc-illesztékek 2.1.1
org.apache.poi Poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0,9,3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus célközönség megjegyzései 0.13.0
org.apache.zookeeper állatkerti gondozó 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework ellenőr-képzettség 3.43.0
org.codehaus.janino közösségi fordítóprogram 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.53.v20231009
org.eclipse.jetty Jetty-kontinuáció 9.4.53.v20231009
org.eclipse.jetty jetty-http (egy Java HTTP szerver implementáció) 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty Jetty Plus 9.4.53.v20231009
org.eclipse.jetty jetty proxy 9.4.53.v20231009
org.eclipse.jetty jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) 9.4.53.v20231009
org.eclipse.jetty Jetty webszerver 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Jetty webalkalmazás 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket websocket API 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-klient 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-kommon 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-szerver 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-lokátor 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi erőforrás-kereső 1.0.3
org.glassfish.hk2.external aopalliance-újracsomagolt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (Jersey konténer szervlet) 2.41.
org.glassfish.jersey.containers jersey-container-servlet-core 2.41.
org.glassfish.jersey.core jersey-ügyfél 2.41.
org.glassfish.jersey.core jersey-közös 2.41.
org.glassfish.jersey.core jersey-szerver 2.41.
org.glassfish.jersey.inject jersey-hk2 2.41.
org.hibernate.validator hibernate-validator (a Hibernate hitelesítő) 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (naplózó rendszer) 3.4.1.Végleges
org.jdbi jdbi 2.63.1
org.jetbrains Széljegyzetek 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql PostgreSQL 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt teszt-interfész 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest scalatest tesztelési keretrendszerrel kompatibilis 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl (nyílt forráskódú szoftver) 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Jótanács

Ha szeretné látni azoknak a Databricks Runtime-verzióknak a kiadási megjegyzéseit, amelyek elérték a támogatás megszűnését (EoS), tekintse meg a Támogatás megszűnéséhez kapcsolódó Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.