Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Az alábbi kibocsátási megjegyzések az Apache Spark 4.0.0 által működtetett Databricks Runtime 17.3 LTS-ről nyújtanak információkat.
Az Azure Databricks 2025 októberében adta ki ezt az LTS-verziót.
Új funkciók és fejlesztések
-
EXECUTE IMMEDIATEállandó kifejezések használata -
LIMIT ALLrekurzív CT-k támogatása - JDK 21 klasszikus számításhoz (nyilvános előzetes verzió)
- A Unity Catalog-kötetekben lévő fájlokhoz való hozzáfűzés helyes hibát ad vissza
- TABLE argumentumok támogatása a Unity Catalog Python UDTF-jeihez
-
st_dumpfüggvénytámogatás - A sokszög belső gyűrűs függvények mostantól támogatottak
-
remote_querytáblaértékű függvény (nyilvános előzetes verzió)
EXECUTE IMMEDIATE állandó kifejezések használata
Mostantól állandó kifejezéseket adhat át SQL-sztringként és argumentumként az utasítások paraméterjelölőinek EXECUTE IMMEDIATE .
LIMIT ALL rekurzív CTE-k támogatása
Mostantól LIMIT ALL eltávolíthatja a rekurzív gyakori táblakifejezésekre (CTE-k) vonatkozó teljes méretkorlátozást.
JDK 21 klasszikus számításhoz (nyilvános előzetes verzió)
A Java Development Kit (JDK) 21 nyilvános előzetes verzióban érhető el a klasszikus számításhoz. Az engedélyezéshez lásd: Fürt létrehozása egy adott JDK-verzióval.
A Unity Catalog-kötetekben lévő fájlokhoz való hozzáfűzés helyes hibát ad vissza
Minden olyan kód, amely tartalmat próbál hozzáfűzni egy Unity-katalógus kötetfájljához, "Illegális keresés" hibaüzenettel meghiúsul. Korábban helytelen "nem támogatott művelet" hibával meghiúsult.
TABLE argumentumok támogatása a Unity Catalog Python UDTF-jeihez
A Unity Catalog Python UDTF-jei mostantól támogatják TABLE az argumentumokat, így a függvények teljes táblákat fogadnak el bemeneti paraméterekként, így összetettebb adatátalakításokat és aggregációkat hozhatnak létre strukturált adathalmazokon. Lásd a Python felhasználó által definiált táblafüggvényeit (UDTF-eket) a Unity Catalogban. A táblaargumentumok támogatása vissza lett adva a Databricks Runtime 17.2-be.
st_dump függvénytámogatás
A függvény használatával st_dump mostantól lekérheti a bemeneti geometria egyetlen geometriáit tartalmazó tömböt. Lásd: st_dump függvény.
A sokszög belső gyűrűs függvények mostantól támogatottak
Mostantól a következő függvényekkel dolgozhat a sokszög belső gyűrűivel:
-
st_numinteriorrings: Egy sokszög belső határainak (gyűrűinek) számának lekérése. Lásd:st_numinteriorringsfüggvény. -
st_interiorringn: Bontsa ki egy sokszög n-edik belső határát, és adja vissza vonalzóként. Lásd:st_interiorringnfüggvény.
remote_query táblaértékű függvény (nyilvános előzetes verzió)
Mostantól a remote_query táblaértékű függvény használatával lekérdezéseket hajthat végre távoli adatbázismotorokon, és táblázatos eredményeket adhat vissza. Ez a függvény adatokat kér le távoli rendszerekből a Unity Catalog-kapcsolatok hitelesítő adataival, és támogatja az SQL- és NoSQL-adatbázisok különböző összekötői beállításait. Lásd remote_query táblaértékelt függvény.
Viselkedési változások
-
input_file_namefüggvény már nem támogatott, és a jövőbeli eltávolítás tárgyát képezheti - Az automatikus betöltő növekményes listája alapértelmezetten módosult
-
MV/ST frissítési információk támogatása a következő helyen:
DESCRIBE EXTENDED AS JSON -
Metaadatoszlop hozzáadása a
DESCRIBE QUERY-hoz ésDESCRIBE TABLE-hoz - Az időbeli érték konvertálásának javítása a strukturális konstansokban a Csatlakozás mód használatakor
-
Decimális pontosság és skálázás
SYSTEM_DEFAULTmódosítása Connect módban - A Spark Connect Scala-ügyfél megfigyeléseinek összetett típusainak támogatása
- Null értékek megőrzése tömbökben, leképezésekben és szerkezetkonstansokban
- A beírt literálok null értékének megőrzése
- Osztályváltás javítása tömb- és térkép literálokban
-
Null szerkezetek helyes kezelése oszlopok elvetésekor
NullType - Null szerkezetek jobb kezelése a Parquetben
-
A Kafka könyvtárának frissítése
aws-msk-iam-auth
input_file_name függvény már nem támogatott, és a jövőben eltávolításra kerülhet
A input_file_name függvény elavult a Databricks Runtime 13.3 LTS óta, mert megbízhatatlan.
A függvény már nem támogatott a Databricks Runtime 17.3 LTS és újabb verziókban, mert megbízhatatlan.
Használja helyette a _metadata.file_name nevet .
Az automatikus betöltő növekményes listájának alapértelmezett beállítása megváltozott.
Az elavult cloudFiles.useIncrementalListing opció alapértelmezett értéke auto-ről false-re változott. Az Azure Databricks mostantól a növekményes listaelemek helyett teljes könyvtárlistákat hajt végre, hogy megakadályozza a kihagyott fájlokat a nem lexikográfiai rendezés miatt. Például 10-01-2025.csv lexikálisan előbbre kerül, mint 8-01-2025.csv.
A Databricks javasolja a fájleseményekre való migrálást a gyorsabb és megbízhatóbb fájlfelderítés érdekében.
Az előző viselkedés megőrzéséhez állítsa be explicit módon a cloudFiles.useIncrementalListing értéket a auto értékre.
MV/ST frissítési információk támogatása a következő helyen: DESCRIBE EXTENDED AS JSON
Az Azure Databricks most létrehoz egy szakaszt a materializált nézet és a streamelési tábla frissítési adataihoz a kimenetben, beleértve az utolsó frissítés időpontját, a frissítés típusát, az állapotot és az DESCRIBE EXTENDED AS JSON ütemezést.
Metaadat oszlop hozzáadása a DESCRIBE QUERY és DESCRIBE TABLE számára
Az Azure Databricks mostantól tartalmaz egy metaadatoszlopot a DESCRIBE QUERY és DESCRIBE TABLE kimenetében a szemantikai metaadatokhoz.
Ha DESCRIBE QUERYegy lekérdezést metrikanézetekkel ír le, akkor a szemantikai metaadatok a lekérdezésen keresztül propagálódnak, ha a dimenziókra közvetlenül hivatkoznak, és a mértékek a függvényt MEASURE() használják.
A DESCRIBE TABLEmetaadatok oszlopa csak metrikanézetek esetén jelenik meg, más táblatípusoknál nem.
Az időbeli érték konvertálásának javítása a strukturális konstansokban a Csatlakozás mód használatakor
Spark Connect módban a konstansok mostantól helyesen kezelik az TypedLit időértékeket ahelyett, hogy kivételeket dobnak. Korábban a struktúrák időértékeinek (például dátumok vagy időbélyegek) használata kivételt eredményezett.
Decimális pontosság és skálázás SYSTEM_DEFAULT módosítása Connect módban
Ha a Spark Connect módot használja Scala-ban, a tömb- és térképkonstansok decimális pontossága és skálázása mostantól (38, 18) értékre változik SYSTEM_DEFAULT. Ez a változás csak a logikai tervre (például a parancs kimenetére) van hatással, és nem befolyásolja a explain() lekérdezés eredményeit.
A Spark Connect Scala-ügyfél megfigyeléseinek összetett típusainak támogatása
A Spark Connect Scala-ügyfél mostantól támogatja a tömb-, térkép- és strukturálástípusokat a megfigyelésekben, így a viselkedés összhangban van a dedikált fürtökkel. Korábban az ilyen összetett típusok megfigyelésekben való használatának megkísérlése kivételt eredményezne.
Null értékek megőrzése tömbökben, leképezésekben és szerkezetkonstansokban
Spark Connect módban a tömbön, a térképen és a szerkezetkonstansokon belüli null értékek megmaradnak ahelyett, hogy a protobuf alapértelmezett értékeire cserélné őket. Korábban a null értékek helytelenül lettek lecserélve az alapértelmezett értékekre, például 0 egész számokra, sztringtípusok üres sztringjeire és false logikai típusokra.
A beírt literálok null értékének megőrzése
A Spark Connect Scala-ügyfél mostantól helyesen megőrzi a tömb- és térképtípusok érvénytelenségét a beírt literálok esetében. Korábban a tömbelemeket és a leképezési értékeket mindig null értékűként kezelték, függetlenül a tényleges típusdefiníciótól.
A case class konverzió javítása tömbökben és térképliterálokban
Spark Connect módban a tömb- és térképliterálok a TypedLit esetén mostantól helyesen kezelik a case osztály értékeit, és nem dobják ki a kivételeket. Korábban a tömb- vagy térképkonstansokban lévő esetosztályértékek használata kivételt eredményezne.
Null szerkezetek helyes kezelése oszlopok elvetésekor NullType
Delta-táblákba való íráskor az Azure Databricks mostantól helyesen megőrzi a null értékű struktúrákat, amikor elveti az oszlopokat a sémából NullType. Korábban a null szerkezeteket helytelenül cserélték le nem null értékű szerkezetértékekre, ahol az összes mező null értékűre lett állítva. Ha például egy null struct értéket szúr be, az később null mezőket tartalmazó struktúraként olvasható vissza a null struktúra helyett.
Null szerkezetek jobb kezelése a Parquetben
Az Azure Databricks most már helyesen észleli a null struccokat, ha az összes kért struccmező hiányzik egy Parquet-fájlból, ami konzisztenssé teszi a viselkedést a Photon és a nem Photon-olvasók között. Korábban a nem Foton-olvasók a teljes szerkezetre tértek vissza NULL null mezőkkel rendelkező struktúra helyett, amikor parquet-fájlokat olvasnak, ahol az összes kért mező hiányzik, de más mezők is jelen voltak.
A Kafka könyvtárának frissítése aws-msk-iam-auth
A aws-msk-iam-auth kódtár a 2.0.1-es verzióra lett frissítve, hogy támogassa az Apache Kafka (MSK) IAM-hitelesítéshez készült felügyelt streamelés regionális biztonsági jogkivonat-szolgáltatás (STS) végpontjának beállítását. Az új awsStsRegion beállítás csak akkor érhető el, ha a megfelelő Spark-konfiguráció engedélyezve van. Ez a frissítés nem vezet be viselkedési módosításokat a meglévő számítási feladatokhoz.
Könyvtárfrissítések
Frissített Python-kódtárak:
Ebben a verzióban nem frissítettek Python-kódtárakat.
Frissített R-kódtárak:
Ebben a verzióban nem frissítettek R-kódtárakat.
Frissített Java-kódtárak:
Ebben a verzióban nem lettek frissítve Java-kódtárak.
Apache Spark
A Databricks Runtime 17.3 LTS tartalmazza az Apache Spark 4.0.0-t. Ez a kiadás tartalmazza az előző verzióban szereplő összes Spark-javítást és fejlesztést, valamint a következőket:
- SPARK-44856 "[SC-195808][python] A Python UDTF nyílszerializáló teljesítményének javítása"
- SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Null értékek kezelése a LiteralValueProtoConverterben
- SPARK-53507 Kompatibilitástörő változásadatok hozzáadása hibákhoz
- SPARK-53574 Az AnalysisContext törlése a beágyazott tervfeloldás során
- SPARK-53444 Az átdolgozás azonnali végrehajtása
- SPARK-53560 Összeomlási ciklus a nem véglegesített köteg Kafka forrásban és AvailableNow trigger során való újrapróbálkozáskor
- SPARK-53127 Az ALL engedélyezése LIMIT a rekurziós sorkorlát felülbírálásához
- SPARK-53574 Visszavonás: "[SC-206548] Az AnalysisContext törlésének megakadályozása..."
- SPARK-53674 Egyszeri átfutású elemző LCA-k kezelése aliasok hozzárendelésekor
- SPARK-53492 Utasítsa el a második ExecutePlan-t, ha egy már befejezett műveletazonosítóval rendelkezik
- SPARK-53677 A JDBC-adatforrás hibakeresésének javítása, ha a lekérdezés szintaxishibát tartalmaz
- SPARK-53490 Protobuf-konverzió javítása a megfigyelt metrikákban
-
SPARK-53671 0-args kizárása az eval típusú következtetésből
@udf - SPARK-53592 Átdolgozás "Tegye vektoros UDF támogatását @udf "
- SPARK-53654 Az "uuid függvény seed támogatása" átdolgozása
- SPARK-53429 Közvetlen átvitel particionálás támogatása a PySpark Dataframe API-ban
- SPARK-53372 Megosztott tesztelési futtatókörnyezeti csomag LDP-hez
- SPARK-53574 Az AnalysisContext törlése a beágyazott tervfeloldás során
-
SPARK-53654 Az "[SC-207022][sql][PYTHON] Támogatás visszavonása
seeda függvénybenuuid" - SPARK-53574 "Visszavonás: [SC-206548] A beágyazott tervfeloldás során törölt AnalysisContext javítása"
- SPARK-53559 HLL-vázlatfrissítések javítása nyers rendezési kulcs bájtok használatával
-
SPARK-53654 Támogatás
seeda függvénybenuuid - SPARK-52449 Az Expression.Literal.Map/Array adattípusainak megadása nem kötelező
- SPARK-53574 Az AnalysisContext törlése a beágyazott tervfeloldás során
- SPARK-53625 Metaadatoszlopok propagálása előrejelzéseken keresztül az ApplyCharTypePadding inkompatibilitásának kezelése érdekében
- SPARK-53558 Visszaállítás "[SC-206544][sql] Teljes táblanév megjelenítése, beleértve a katalógus nevét a kivétel üzenetében, ha a tábla nem található"
- SPARK-53558 Teljes táblanév megjelenítése a katalógus nevével együtt a kivételüzenetben, ha a tábla nem található
-
SPARK-53357 Frissítés
pandasa 2.3.2-hez - SPARK-52659Félrevezető modulo hibaüzenet ANSI módban
-
SPARK-53592 "[SC-206971][python] Visszaállítás:
@udftámogatása a vektoros UDF számára" -
SPARK-53592 A
@udftámogatása a vektorizált UDF számára - SPARK-52601 Primitív típusok támogatása a TransformingEncoderben
- SPARK-53355 javítás numpy 1.x repr típustesztekben
- SPARK-53387 Támogatás hozzáadása a nyilat tartalmazó UDTF-ekhez a BY használatával PARTITION
- SPARK-52991 Implementálás MERGE INTO az EVOLUTION for V2 adatforrással SCHEMA
- SPARK-53568 Több kisebb hiba kijavítása a Spark Connect Python-ügyfél hibakezelési logikájában
- SPARK-43579 optim: Gyorsítótárazza a konvertert a Arrow és a Pandas között az újrafelhasználáshoz
- SPARK-53524 Az időértékek konvertálásának javítása a LiteralValueProtoConverterben
-
SPARK-53600 A legutóbbi hozzáférési idő naplóüzenetének módosítása
SessionHolder -
SPARK-53529 Az ügyfélkapcsolat javítása
pysparkaz IPv6 támogatására - SPARK-53537 Támogatás hozzáadása a CONTINUE HANDLER elemzéséhez
- A SPARK-53623 javítja a nagy táblázattulajdonságok olvasási teljesítményét
-
SPARK-53523 Elnevezett paraméterek tiszteletben tartása
spark.sql.caseSensitive - SPARK-53449 Egyszerűen a beépített adatforrás-vizsgálathoz kapcsolódó osztályok beállításai
- SPARK-53620 A SparkSubmitnek stacktrace-et kell nyomtatnia az exitFn meghívásakor
- SPARK-53518 Nincs csonkolás a felhasználó által definiált típusú catalogString esetében
- SPARK-53568 "[SC-206538][connect][PYTHON] A Spark Connect Python-ügyfél hibakezelési logikájában található néhány kisebb hiba kijavítása"
- SPARK-53602 Profilkép javítása és profilkészítői dokumentum javítása
- SPARK-53402 A Direct Passthrough Partitioning Dataset API támogatása Spark Connectben Scalához
- SPARK-53491 Az inputRowsPerSecond és a processedRowsPerSecond exponenciális formázásának javítása folyamatban lévő JSON-metrikákban
- SPARK-53413 Shuffle tisztítás parancsokhoz
- SPARK-53518 Visszavonás: "[SC-205989][sql] Nincs csonkolás a User Defined Type catalogString esetében"
- SPARK-53568 Több kisebb hiba kijavítása a Spark Connect Python-ügyfél hibakezelési logikájában
- SPARK-53552 Az substr SQL-függvény optimalizálása
- SPARK-53527 Az analyzeExistenceDefaultValue tartalékainak javítása
- SPARK-53584 A process_column_param érvényesítési és oszlopparaméter-dokumentáció továbbfejlesztése
-
SPARK-53498 Helyes hivatkozás
pyspark/pipelines/cli.pybinárisbólspark-pipelines - SPARK-53518 Nincs csonkolás a felhasználó által definiált típusú catalogString esetében
-
SPARK-53233 A megfelelő csomagnév használatával kapcsolatos
streamingkód létrehozása - SPARK-53598 Ellenőrizze a numParts meglétét a nagy táblatulajdonságok olvasása előtt
- SPARK-53372 SDP– végpontok közötti tesztelési csomag
- SPARK-53563 Optimalizálás: sql_processor a nem hatékony sztringösszefűzés elkerülésével
- SPARK-53323 Spark Connect-tesztek engedélyezése a df.asTable() elemhez a Nyíl UDTF-ben
- SPARK-53157 Vezérlő és végrehajtó lekérdezési időközeinek szétválasztása
- SPARK-53555 Javítás: A SparkML-connect nem tudja betölteni a SparkML (örökölt mód) mentett modelljét
- SPARK-53361 A JVM–Python kommunikáció optimalizálása TWS-ben több kulcs csoportosításával egy nyílkötegbe
- SPARK-53233 Vonja vissza a "[SC-203716][sql][SS][mllib][CONNECT] Kód összetétele a megfelelő csomagnév használatának biztosítása érdekében" változtatást
-
SPARK-53233 A megfelelő csomagnév használatával kapcsolatos
streamingkód létrehozása - SPARK-53525 Spark Connect ArrowBatch eredménytömb
- SPARK-53444 Visszaállítás "[SC-206536][sql] Rework execute immediate"
- SPARK-53594 Az Arrow UDF-ek tiszteletben tartják a felhasználók által megadott kiértékelési típust.
- SPARK-53444 Az átdolgozás azonnali végrehajtása
-
SPARK-53582 Kiterjesztése
isExtractable, hogy alkalmazható legyen aUnresolvedExtractValue - SPARK-53572 Kerülje el az ExtractValue.isExtractable dobását
- SPARK-52346 Számláló inicializálásának és növelési logikájának javítása a folyamat újrakísérletezéseihez
- SPARK-53561 Megszakítási kivételt felfogni a TransformWithStateInPySparkStateServerben az outputStream.flush hívásakor a feldolgozó összeomlásának elkerülése érdekében.
- SPARK-53512 A DSv2 PushDownUtils jobb egyesítése
- SPARK-53459 A ReadOnlySparkConf használata több helyen
- SPARK-53549 A listaállapot-kérelem folyamatának befejezésekor mindig zárja be a nyílelosztót
- SPARK-53332 StateDataSource engedélyezése a 2. állapot-ellenőrzőponttal (csak snapshotStartBatchId beállítás)
- SPARK-53550 Az unió kimeneti particionálásának össze kell hasonlítania a kanonizált attribútumokat
-
SPARK-53506 Kizárás
%a decimális és a lebegőpontos típusok között az ANSI szabvány szerint - SPARK-52238 Pipeline Spec Mező 'definíciók' átnevezése 'kódtárakra'
-
SPARK-53538
ExpandExecinicializálnia kell a nem biztonságos előrejelzéseket - SPARK-53521 Csillagkifejezés átalakítása
- SPARK-53358 Az arrow Python UDTF kimeneti típuskülönbségét jelző hibaüzenet javítása
- SPARK-53531 Jobb hibaüzenet a HadoopRDD.getInputFormat szolgáltatáshoz
- SPARK-53434 A ColumnarRow get metódusának ellenőriznie kell az isNullAt értéket is.
- SPARK-53008 Hozzáadás: az OSS SQL UDF-adathozzáférési rutin ellenőrzése
- SPARK-44856 A Python UDTF nyílszerializáló teljesítményének javítása
- SPARK-53488 A CollationTypeCoercion frissítése, hogy kompatibilis legyen az egyátmenetes Analyzer-logikával
- SPARK-53029 A Arrow Python UDTF-ek visszatérési típusának támogatása
-
SPARK-53479 Viselkedés igazítása
==a pandashoz a skalárissal való összehasonlítás során az ANSI-ben -
SPARK-53497 Tiltsa meg a decimális és a lebegőpontos érték közötti
/|//|*az ANSI szerint -
SPARK-53441 Bools
|/&/^Semmi nem lehet sikertelen az ANSI alatt - SPARK-53474 Conf DATA_SOURCE_V2_EXPR_FOLDING hozzáadása
- SPARK-53333 A StateDataSource engedélyezése az állapotellenőrzési pont v2-vel (csak readChangeFeed)
- SPARK-53502 Metódusok elnevezésének javítása a LiteralValueProtoConverterben
-
SPARK-52694 API hozzáadása
o.a.s.sql.Encoders#udt - SPARK-53499 from_arrow_type figyelembe kell venni az ArrayType-ban található ContainsNull értéket
-
SPARK-53515 A nem használt
private lazy valeltávolítása aSchemaOfCsv/Xml - SPARK-53480 Arrow Python futtatókód átszervezése
- SPARK-53481 Hibrid sorosztály létrehozása
- SPARK-53401 Közvetlen átengedés particionálásának engedélyezése a DataFrame API-ban
- SPARK-52930 DataType.Array/Map használata tömbhöz/térképkonstansokhoz
- SPARK-52346 Partícióoszlopok propagálása a BatchTableWrite célhelyéről
- SPARK-53342 Nyílkonverter javítása több rekordköteg kezeléséhez egyetlen IPC-streamben
- SPARK-53421 Logikai terv azonosítójának propagálása az SDP-elemzésben
-
SPARK-53408 A nem használt függvények eltávolítása a
QueryCompilationErrors - SPARK-53044 Deklaratív folyamatok importálási alias-konvenciójának módosítása "sdp" értékről "dp" értékre
- SPARK-53450 A null értékek váratlanul pótlásra kerülnek, miután a hive táblázat lekérdezést logikai kapcsolattá konvertálják.
- SPARK-53290 Metaadatok visszamenőleges kompatibilitását megszakító hiba javítása
- SPARK-52982 Oldalirányú illesztés letiltása Arrow Python UDTF-ekkel
- SPARK-52851 Nyilvános API-k eltávolítása az egyszeri hozzáfűzési folyamatokhoz
- SPARK-52511 Száraz futtatási mód támogatása a Spark-Pipelines parancsban
- SPARK-53290 Visszaállítás: "[SC-204277][sql][CONNECT] Metaadatok visszamenőleges kompatibilitását törő javítás"
- SPARK-53290 Metaadatok visszamenőleges kompatibilitását megszakító hiba javítása
- SPARK-52577 Tesztek hozzáadása a Deklaratív folyamatok adatkészlet-kezelőhöz a Hive-katalógussal
- SPARK-53012 Az Arrow Python UDTF támogatása a Spark Connectben
- SPARK-53251 DataFrame API-tesztelés engedélyezése a Arrow Python UDTF-ekhez készült AsTable() használatával
- SPARK-52432 Határozza meg a DataflowGraphRegistry kereteit a munkamenethez
- SPARK-52853 Imperatív PySpark-metódusok megakadályozása deklaratív folyamatokban
-
SPARK-52745 Győződjön meg arról, hogy az egyik
schemavagycolumnsa Tábla felületen implementálva van, éscolumnselőnyösebb - SPARK-52991 Revert "[SC-204944][sql] Implementál MERGE INTO az EVOLUTION a SCHEMA V2 Adatforráshoz"
- SPARK-52981 Táblaargumentum-támogatás hozzáadása a Arrow Python UDTF-ekhez
-
SPARK-53487 Javítsa meg a megjegyzéseket a következőben:
NormalizePlan.scala - SPARK-52991 Implementálás MERGE INTO az EVOLUTION for V2 adatforrással SCHEMA
-
SPARK-52281 Módosítsa
ALTER TABLE ALTER COLUMN TYPE STRINGúgy, hogy ne alkalmazza az alapértelmezett rendezést, ha az eredeti adattípus aStringType - SPARK-52759 Kivétel kioltása, ha a folyamat nem rendelkezik táblák vagy megőrzött nézetekkel
- SPARK-51575 Python-adatforrás-leképzés és olvasómunkás-tervezés
- SPARK-53359 Az Arrow UDTF javítása az eredmények iterátorként történő kezelésére
- SPARK-52757 A DefineFlow "plan" mezőjének átnevezése "relációra"
- SPARK-52431 Befejező simítások a Deklaratív modulok futtatóján
- SPARK-52591 Az SDP-tábla és az önálló folyamatdefiníciók által visszaadott DF-k folyamatosságának ellenőrzése
- SPARK-53030 Támogatás az Arrow író számára Python adatforrások streameléséhez
- SPARK-52980 Arrow Python UDTF-ek támogatása
- SPARK-42841Név hozzárendelése a _LEGACY_ERROR_TEMP_2005 hibaosztályhoz
- SPARK-52423 Hiányzó golang-csomagnév hozzáadása a pipelines.proto fájlhoz
- SPARK-52409 Csak a PipelineRunEventBuffer használata tesztekben
- SPARK-52533 Csak az illesztőprogram-profiler engedélyezésének támogatása
- SPARK-52716 Megjegyzés eltávolítása a Flow-tulajdonságokból és -hivatkozásokból
- SPARK-52348 Spark Connect-kezelők támogatása folyamatparancsokhoz
-
SPARK-52281 Visszaállítás "[SC-198058][sql] Módosítás úgy, hogy
ALTER TABLE ALTER COLUMN TYPE STRINGne alkalmazza az alapértelmezett rendezést, ha az eredeti adattípus példányaStringTypevolt" - SPARK-49386 Memóriaalapú küszöbértékek hozzáadása az elfojtásos kiömléshez
-
SPARK-52281 Módosítsa
ALTER TABLE ALTER COLUMN TYPE STRINGúgy, hogy ne alkalmazza az alapértelmezett rendezést, ha az eredeti adattípus aStringType - SPARK-53329 A kivételkezelés javítása összetevők hozzáadásakor
- SPARK-52772 Visszavonás "[SC-202707][engrm-327][SQL] Inkonzisztens táblaattribútum-kezelés a frissítések során"
- SPARK-52772 Inkonzisztens táblaattribútumok kezelése a frissítések során
- SPARK-51739 Nyílséma érvényesítése a mapInArrow &mapInPandas &Adatforrásból
- SPARK-53355 python udf-típus viselkedésének tesztelése
-
SPARK-53443 Python frissítése
SPDX-license - SPARK-49968 A felosztott függvény helytelen eredményeket eredményez üres regextel és korláttal
- SPARK-52582 Az XML-elemző memóriahasználatának javítása
-
SPARK-53452
from_arrow_typetiszteletben kell tartanivalueContainsNull - SPARK-53103 "[SC-204946][ss] Hibajelzés, ha az állapotkönyvtár nem üres a lekérdezés indításakor"
- SPARK-53103 Hibajelzés, ha az állapotkönyvtár nem üres a lekérdezés indításakor
- SPARK-51575 "[SC-192406][python] Python-adatforrások leküldésének visszaállítása és az olvasási feldolgozók tervének visszaállítása"
- SPARK-51575 Python-adatforrás-leképzés és olvasómunkás-tervezés
- SPARK-53095 A HMS v4.1 támogatása
-
SPARK-53126 Átalakítás
SparkErrorUtils#stackTraceToStringanullbemenet kezelésére és annakExceptionUtils#getStackTracecseréjére használata -
SPARK-49489 HMS-ügyfél tiszteletben tartása
hive.thrift.client.maxmessage.size - SPARK-53108 A time_diff függvény implementálása a Scalában
- SPARK-45265 A Hive 4.0 metaadattára támogatása
-
SPARK-53255 Kitiltás
org.apache.parquet.Preconditions - SPARK-52142 Táblakorlátozások megjelenítése a COMMAND-ben SHOW CREATE TABLE
- SPARK-52875 A V2-kifejezésfordítás egyszerűsítése, ha a bemenet környezetfüggetlen-összecsukható
-
SPARK-53240 Tilalom
com.google.common.collect.(ArrayList)?Multimap - SPARK-52875 "[SC-201880][sql] A V2-kifejezések fordításának egyszerűsítése, ha a bemenet környezetfüggetlen-összecsukható"
- SPARK-52141 Korlátozások megjelenítése a DESC-parancsokban
- SPARK-53386 A JDBC-összekötőkben pontosvesszővel végződő lekérdezési paraméter támogatása
- SPARK-52875 A V2-kifejezésfordítás egyszerűsítése, ha a bemenet környezetfüggetlen-összecsukható
- SPARK-53437 Az InterpretedUnsafeProjection-nek a setNull4Bytes-t kell beállítania a YearMonthIntervalType mezőhöz.
- SPARK-53341 A többváltozós DECLARE tesztlefedettségének bővítése
- SPARK-53156 Az illesztőprogram memóriametrikáinak nyomon követése az alkalmazás befejeződésekor
- SPARK-52689 DML-metrikák küldése a V2Write-be
- SPARK-52641 Az elsődleges kulcsoszlopok nem lehetnek null értékűek
- SPARK-48547 Opcionális jelző hozzáadása a SparkSubmithez, hogy a user code fő metódusának kilépése után automatikusan hívja a System.exit-et.
- SPARK-52575 A contextIndependentFoldable attribútum bemutatása kifejezésekhez
- SPARK-52860 V2 írási séma fejlődésének támogatása az InMemoryTable-ban
- SPARK-53435 Versenyállapot javítása a CachedRDDBuilderben
- SPARK-51987 DSv2 kifejezések alkalmazása alapértelmezett oszlopértékeknél adatíráskor
- SPARK-52235 Implicit cast hozzáadása a DSV2-nek átadott DefaultValue V2-kifejezésekhez
- SPARK-52236 Az alapértelmezett értékek elemzési kivételeinek standardizálása
- SPARK-53294 StateDataSource engedélyezése az állapotellenőrzési pont v2-vel (csak batchId opció)
- SPARK-52095 Az táblázat átalakítása során az oszlop módosításával adjuk át a V2Expression-t a DSV2-nek.
- SPARK-53415 Egyszerűen a beépített FileFormats beállításai
- SPARK-53318 Az időtípus támogatása make_timestamp_ltz() szerint
- SPARK-53143 Az önillesztés javítása a DataFrame API-ban – Az illesztés nem az egyetlen várt kimenet az elemzőtől
-
SPARK-53423 Az egyáteresztő feloldóval kapcsolatos címkék áthelyezése a következőre:
ResolverTag - SPARK-52116 A nem determinisztikus alapértelmezett értékek kivételének javítása
- SPARK-51906 Az alter tábla Dsv2-kifejezései oszlopokat adnak hozzá
- SPARK-53403 Összeadás/kivonás tesztek javítása az ANSI szabvány szerint
-
SPARK-53418 Támogatás a következőben
TimeType:ColumnAccessor - SPARK-52777 Az shuffle cleanup mód konfigurációjának engedélyezése a Spark SQL-ben
- SPARK-52485 Deklaratív adatcsatornák kódkarbantartása
-
SPARK-53236 Használjon Java-konstruktorokat Java-kódban
ArrayListLists.newArrayListhelyett - SPARK-53392 SpecializedArray kezelés áthelyezése a connect-common modulba
-
SPARK-53176 A Spark-indítónak tiszteletben kell tartania
--load-spark-defaults -
SPARK-53237 Használj Java-t
Base64a példány helyettorg.apache.commons.codec.binary.Base64 - SPARK-53390 Hibajelzés, amikor a None értéket tartalmazó logikai értékek átalakítása ANSI alatt egész számokra történik
- SPARK-53109 TIME típus támogatása a make_timestamp_ntz és try_make_timestamp_ntz függvényekben a Scala nyelvben
- SPARK-53393 Arrow skaláris iterátor UDF-ek memóriaprofilozójának letiltása
- SPARK-53367 – Int típus hozzáadása az Arrow UDF-ekhez tartozó decimális típusú kényszerítéshez
- SPARK-53365 Kód egységesítése a nézetekben és az UDF-ekben lévő konfigurációk megőrzéséhez
-
SPARK-53228 Java-konstruktorok
Maphasználata ahelyett, hogyMaps.new*HashMap() -
SPARK-53197 Használja
java.util.Objects#requireNonNullhelyettcom.google.common.base.Preconditions#checkNotNull -
SPARK-53216 Ugrás
is*(Blank|Empty)ideobject SparkStringUtils:trait SparkStringUtils - SPARK-53385 Azonosító újrabontása – kiértékelés
- SPARK-53384 Változófelbontás újrabontása
-
SPARK-53195 Java használata ahelyett, hogy
InputStream.readNBytesByteStreams.read -
SPARK-53205 Támogatás a következőben
createParentDirs:SparkFileUtils -
SPARK-53196 Java használata ahelyett, hogy
OutputStream.nullOutputStreamByteStreams.nullOutputStream -
SPARK-53381 Kerülje az ideiglenes gyűjtemények létrehozását a következő helyen:
toCatalystStruct - SPARK-53275 Állapotalapú kifejezések kezelése értelmezett módban történő rendezéskor
- SPARK-51585 Az Oracle dialektus támogatja az időadat-függvények pushdown műveleteit.
-
SPARK-53200 Java használata
Files.newInputStreamhelyettFiles.asByteSource().openStream() -
SPARK-53190 Java használata ahelyett, hogy
InputStream.transferToByteStreams.copy -
SPARK-53188 Támogatás
readFullyaSparkStreamUtilsésJavaUtils - SPARK-53354 A LiteralValueProtoConverter.toCatalystStruct egyszerűsítése
- SPARK-52873 További korlátozás, amikor az SHJ semi/anti csatlakozás figyelmen kívül hagyhatja a duplikált kulcsokat a build oldalán
-
SPARK-53180 Használj Java-t ahelyett, hogy
InputStream.skipNBytesByteStreams.skipFully -
SPARK-53369 A visszatérési típussal rendelkező UDF-ek hibaüzenetének
CHAR/VARCHARjavítása - SPARK-53330 Fix Arrow UDF a DayTimeIntervalType típusával (korlátok != kezdés/vég).
- SPARK-53366 Formázási szabályok alkalmazása sql/connect/shims esetén
- SPARK-53348 Mindig őrizze meg az ANSI értéket egy nézet létrehozásakor, vagy feltételezze lekérdezéskor, ha nincs tárolva.
-
SPARK-53119 Támogatás a következőben
touch:SparkFileUtils - SPARK-52592 Ps létrehozásának támogatása. Sorozat egy ps.-ből. Sorozat
- SPARK-53360 A stratégia, amely magában foglalja a ConstantFolding idempotenciáját, egyszeri alkalmazáskor nem törhet meg.
-
SPARK-53135 Támogatás
copyURLToFilea következőben:SparkFileUtilsJavaUtils -
SPARK-53150 Fejlesztés
list(File|Path)sa nem létező, nem címtár alapú, szimlink bemenetek kezeléséhez -
SPARK-53135 Visszavon "[SC-203164][core][SQL] Támogatás
copyURLToFileSparkFileUtilsésJavaUtils" -
SPARK-53137 Támogatás
forceDeleteOnExitésSparkFileUtilsszámáraJavaUtils - SPARK-53352 A nem támogatott visszatérési típus hibaüzenetének pontosítása
- SPARK-53353 Skaláris Iterátor Arrow felhasználó által meghatározott függvény 0 argumentummal való hibája
-
SPARK-53135 Támogatás
copyURLToFilea következőben:SparkFileUtilsJavaUtils -
SPARK-53101 Támogatás a következőben
(left|right)Pad:SparkStringUtils -
SPARK-53117 Támogatás
moveDirectoryközöttSparkFileUtilsésJavaUtils -
SPARK-53121 Használja
deleteRecursivelyhelyettFileUtils.forceDelete -
SPARK-53100 Java helyett
String.substringhasználataStringUtils.substring -
SPARK-53092 Tilalom
org.apache.commons.lang3.SystemUtils - SPARK-53328 A SparkML-connect hibakeresésének javítása
- SPARK-52065 Egy másik tervfa előállítása kimeneti oszlopokkal (név, adattípus, nullérzékenység) a tervmódosítások naplózásában
- SPARK-51182 A DataFrameWriternek a dataPathNotSpecifiedError értéket kell dobnia, ha nincs megadva elérési út
-
SPARK-52410 Érvénytelenítés
PipelineConfmajd közvetlen használatSqlConf - SPARK-52852 A nem használt spark_conf eltávolítása a create_streaming_table
- SPARK-52714 A nem használt megjegyzés arg eltávolítása append_flow dekorátorban
- SPARK-52663 Névmező bevezetése a folyamat specifikációihoz
-
SPARK-53091 Tilalom
org.apache.commons.lang3.Strings - SPARK-52393 Folyamat SQL graf elem regisztrálása
-
SPARK-52912 Javítás
SparkStringUtilsa támogatás érdekébenis(Not)?(Blank|Empty) - SPARK-53307 RetriesExceeded hiba eltávolítása a Spark Connect Python- és Scala-ügyfelektől
-
SPARK-52346 Deklaratív folyamat
DataflowGraphvégrehajtása és eseménynaplózása - SPARK-52877 A Python UDF-nyíl szerializáló teljesítményének javítása
- SPARK-51920 Összetett/beágyazott típus javítása az értékállapotra vonatkozóan a Python TWS-ben
- SPARK-52741 A RemoveFiles ShuffleCleanup mód nem működik nem adaptív végrehajtással
- SPARK-52238 Python-ügyfél deklaratív folyamatokhoz
- SPARK-51926 INVALID_CONF_VALUE.subXXX hibaosztály hozzáadása a konfigurációs hibákhoz.
- SPARK-53155 A globális alacsonyabb agregáció nem helyettesíthető projekttel
-
SPARK-52911 A használat eltávolítása
StringUtils.(split|chop) - SPARK-51926 Visszavonás "[SC-195096][core][SQL] INVALID_CONF_VALUE.subXXX hibaosztály hozzáadása a konfigurációs hibákhoz"
- SPARK-53346 Ne hozzon létre ideiglenes gyűjteményeket a toCatalystArray/toCatalystMap alkalmazásban
- SPARK-51926 INVALID_CONF_VALUE.subXXX hibaosztály hozzáadása a konfigurációs hibákhoz.
- SPARK-53136 tryWithResource &tryInitializeResource csendesen bezárja az erőforrást
-
SPARK-53132 Támogatás
list(File|Path)saSparkFileUtilsésJavaUtilsesetében - SPARK-51896 Java Enum-támogatás hozzáadása TypedConfigBuilderhez
- SPARK-53311 A PullOutNonDeterministic canonicalized kifejezéseket használja
- SPARK-51527 A kodekgen naplószintje konfigurálhatóvá tétele az SQLConf használatával
- SPARK-52223 SDP Spark Connect Protos hozzáadása
- SPARK-52283 Deklaratív csővezetékek létrehozása és feloldása
-
SPARK-52880 Javítsuk
toStringahelyett, hogyJEP-280ToStringBuilder - SPARK-53284 A Spark-konfiguráció importálásának módosítása tesztekben
- SPARK-53050 Az MultiIndex.to_series() engedélyezése az egyes bejegyzések szerkezetének visszaadásához
- SPARK-52988 A versenyhelyzetek javítása a CREATE TABLE és a FUNKCIÓ esetében, ha HA NEM LÉTEZIK van használva.
-
SPARK-52874 Java-rekord támogatása
o.a.s.util.Pair -
SPARK-52710
DESCRIBE SCHEMAnyomtatni kell a rendezést -
SPARK-49984 Javítás
supplementJava(Module|IPv6)Optionscsak frissítéshezextraJavaOptions
Az Azure Databricks ODBC/JDBC-illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Karbantartási frissítések
Lásd a Databricks Runtime karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Telepített Python-kódtárak
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| széljegyzetes típusok | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | nyíl | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | Aszinkron-LRU | 2.0.4 | attribútumok | 24.3.0 |
| automatikus parancs | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web (web kezelési modul az Azure-hoz) | 8.0.0 |
| Azure-tároló-blob | 12.23.0 | Azure-tároló-fájl-adattó (Azure Storage File Data Lake) | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | fekete | 24.10.0 |
| fehérítő | 6.2.0 | villogó | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | Gyorstár-eszközök | 5.5.1 | tanúsítvány | 2025.01.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | karakterkészlet-normalizáló (charset-normalizer) | 3.3.2 |
| kattintás | 8.1.7 | Cloudpickle | 3.0.0 | kommunikáció | 0.2.1 |
| ContourPy | 1.3.1 | kriptográfia | 43.0.3 | biciklista | 0.11.0 |
| Cython | 3.0.12 | databricks SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy hibakereső eszköz | 1.8.11 | dekorátor | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | docstring Markdown-formátummá alakítása | 0.11 |
| Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | fájlzárolás | 3.18.0 | betűtípusok | 4.55.3 |
| FQDN | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | Google-autentikáció | 2.40.0 |
| google-cloud-core (Google felhő mag) | 2.4.3 | Google felhőtárhely | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (Google újraindítható média) | 2.7.2 | googleapis-közös-protokollok | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | Idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | ragoz | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| izodátum | 0.6.1 | izoduráció | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-specifikációk | 2023.07.01. | jupyter-események | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_kliens | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server (Jupyter kiszolgáló) | 2.14.1 |
| jupyter szerver terminálok | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| JupyterLab-widgetek | 1.0.0 | jupyterlab_szerver | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| félhangol | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-kiterjesztések | 1.3.1 |
| mypy kiterjesztések | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| jegyzetfüzet | 7.3.2 | notebook-shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-szemantikai-konvenciók | 0,53b1 | Felülbírálja | 7.4.0 | csomagolás | 24,2 |
| Pandák | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| útvonal specifikáció (pathspec) | 0.10.3 | bűnbak | 1.0.1 | pexpect | 4.8.0 |
| párna | 11.1.0 | pipa | 25.0.1 | Platformdirs | 3.10.0 |
| ábrázolás | 5.24.1 | csatlakozós | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit: parancssori eszközkészlet | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser (C és C++ fájlok feldolgozására szolgáló parser) | 2.21 |
| pydantic (egy Python könyvtár) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes (egy program vagy eszköz neve) | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc (Python ODBC interfész) | 5.2.0 | pyparsing (egy Python könyvtár a szövegelemzéshez) | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | Szoftver verzió: 2.9.0.post0 |
| Python JSON naplózó | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytool konfiguráció | 1.2.6 | pytz (egy Python könyvtár az időzóna számításokhoz) | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Hivatkozás | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator | 0.1.4 | RFC3986-érvényesítő | 0.1.1 | gazdag | 13.9.4 |
| kötél | 1.12.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn (egy Python gépi tanulási könyvtár) | 1.6.1 | scipy (tudományos és műszaki számítási Python könyvtár) | 1.15.1 |
| tengerben született | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| hat | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | levesszűrő | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | halmaz adatok | 0.2.0 | Starlette | 0.46.2 |
| statsmodels - statisztikai szoftvercsomag | 0.14.4 | strictyaml | 1.7.3 | Kitartás | 9.0.0 |
| befejezett | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| jellemzők | 5.14.3 | típusőrző | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions (gépelési kiterjesztések) | 4.12.2 | tzdata | 2024.1 | ujson (JSON-kezelő könyvtár a Pythonban) | 5.10.0 |
| felügyelet nélküli frissítések | 0,1 | uri-sablon | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webszínek | 24.11.1 | webkódolások | 0.5.1 |
| websocket-klient | 1.8.0 | Mi a javítás? | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | becsomagolva | 1.17.0 | yapf | 0.40.2 |
| cipzár | 3.21.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2025-03-20-án.
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| nyíl | 19.0.1 | jelszókérés | 1.2.1 | Meggyőződj arról, hogy | 0.2.1 |
| háttérportolások | 1.5.0 | alapkép | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | boot - rendszerindítás | 1.3-30 |
| sört főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.7 |
| bslib | 0.9.0 | gyorsítótár | 1.1.0 | hívásindító | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | kronométer | 2.3-62 |
| osztály | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| óra | 0.7.2 | fürt | 2.1.6 | kódolási eszközök | 0.2-20 |
| színterület | 2.1-1 | commonmark | 1.9.5 | fordítóprogram | 4.4.2 |
| config | 0.3.2 | ellentmondásos | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | azonosító adatok | 2.0.2 | göndörít | 6.4.0 |
| adat.táblázat | 1.17.0 | adatkészletek | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Leírás | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | kivonat | 0.6.37 |
| lefelé irányított világítású | 0.4.4 | dplyr (adatmanipulációs csomag az R programozási nyelvhez) | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | három pont | 0.3.2 | kiértékel | 1.0.3 |
| rajongók | 1.0.6 | színek | 2.1.2 | gyorstérkép | 1.2.0 |
| fontawesome | 0.5.3 | elveszettek | 1.0.0 | foreach | 1.5.2 |
| külföldi | 0.8-86 | kovácsol | 0.2.0 | fs | 1.6.5 |
| jövő | 1.34.0 | jövő.alkalmaz | 1.11.3 | gargarizál | 1.5.2 |
| általánosítás | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globálisok | 0.18.0 | ragasztó | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower-hegység | 1.0.2 |
| grafika | 4.4.2 | grDevices | 4.4.2 | rács | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | védősisak | 1.4.1 | kikötő | 2.5.4 |
| magasabb | 0.11 | HMS | 1.1.3 | HTML-eszközök | 0.5.8.1 |
| HTML-widgetek | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | Azonosítók | 1.0.1 | ini | 0.3.1 |
| iPred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | címkézés | 0.4.3 |
| később | 1.4.1 | rácsszerkezet | 0.22-5 | láva | 1.8.1 |
| életciklus | 1.0.4 | hallgatás | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | Tömeg | 7.3-60.0.1 |
| Mátrix | 1.6-5 | memorizálás | 2.0.1 | módszerek | 4.4.2 |
| mgcv | 1.9-1 | pantomimázás | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| „numDeriv” | 2016. augusztus - 1.1 | openssl (nyílt forráskódú titkosító szoftver) | 2.3.3 | párhuzamos | 4.4.2 |
| párhuzamosan | 1.42.0 | pillér | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | csomag betöltése | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | dicséret | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | haladás | 1.2.3 |
| progressr | 0.15.1 | ígéretek | 1.3.2 | Próto | 1.0.0 |
| közvetít | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | véletlen erdő (randomForest) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer (egy szoftvercsomag neve) | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reakcióképes | 0.4.4 |
| reactR | 0.6.1 | Readr | 2.1.5 | readxl (Excel fájlokat olvasó programcsomag) | 1.4.5 |
| Receptek | 1.2.0 | Visszavágó | 2.0.0 | visszavágó2 | 2.1.2 |
| Távvezérlők | 2.5.0 | megismételhető példa | 2.1.1 | újraformázás2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| változatok | 2.1.2 | Szüret | 1.0.4 | Sass | 0.4.9 |
| mérlegek | 1.3.0 | szelekciós eszköz | 0.4-2 | munkamenet-információk | 1.2.3 |
| alakzat | 1.4.6.1 | Fényes | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| térbeli | 7.3-17 | splinek | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statisztika | 4.4.2 | statisztikák4 | 4.4.2 |
| string | 1.8.7 | stringr | 1.5.1 | túlélés | 3.5-8 |
| magabiztosság | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| Tcl/Tk programozási nyelv és eszközkészlet. | 4.4.2 | testthat | 3.2.3 | szövegformázás | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | időváltás | 0.3.0 | idődátum | 4041.110 |
| tinytex | 0.56 | eszközök | 4.4.2 | tzdb | 0.5.0 |
| URL-ellenőrző | 1.0.1 | ezt használd | 3.1.0 | utf8 | 1.2.6 |
| segédprogramok | 4.4.2 | univerzálisan egyedi azonosító (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | bruum | 1.6.5 |
| Waldo | 0.6.1 | szőrszál | 0.4.1 | valamivel | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML (adat-szerializációs formátum) | 2.3.10 | zeallot | 0.1.0 |
| zip fájl | 2.3.2 |
Telepített Java- és Scala-kódtárak (Scala 2.13 klaszterverzió)
| Csoportazonosító | A tárgy azonosítója | verzió |
|---|---|---|
| ANTLR (Egy másik eszköz a nyelvi felismeréshez) | ANTLR (Egy másik eszköz a nyelvi felismeréshez) | 2.7.7 |
| com.amazonaws | Amazon Kinesis kliens | 1.12.0 |
| com.amazonaws | AWS Java SDK - Automatikus Skálázás | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (AWS Java SDK konfiguráció) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS Java SDK importexport modul | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms (Amazon Web Services Java SDK KMS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-gépi tanulás | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Támogatás | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf könyvtárak | 1.11.22 |
| com.amazonaws | aws-java-sdk-munkaterületek | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | adatfolyam | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java (Databricks Java SDK) | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-árnyékolt | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | osztálytárs | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotációk | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (adatformátum CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson adattípus - Joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1-őslakosok |
| com.github.fommil.netlib | natív rendszer-java | 1.1 |
| com.github.fommil.netlib | natív rendszer-java | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-natív_rendszer-linux-x86_64 | 1.1-őslakosok |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | hibára hajlamos annotációk | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | hozzáférési hiba | 1.0.2 |
| com.google.guava | guáva | 33.4.0-jre |
| com.google.guava | hallgatható jövő | 9999.0-üres-az-ütközés-elkerülése-miatt-guava-val |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profilkészítő | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | forráskód_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (kompressziós algoritmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl (JAXB implementáció) | 2.2.11 |
| com.tdunning | JSON formátum | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lencsék_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-elemzők | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| „commons-codec” | „commons-codec” | 1.17.2 |
| commons-collections (közös gyűjtemények könyvtár) | commons-collections (közös gyűjtemények könyvtár) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-fájlfeltöltés | Commons-fájlfeltöltés | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| közös naplózás | közös naplózás | 1.1.3 |
| közös medence | közös medence | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | légkompresszor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | metrikák annotációja | 4.2.30 |
| io.dropwizard.metrics | metrikai magrész | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | mutatók-egészségügyi ellenőrzések | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json (metrikák JSON formátumban) | 4.2.30 |
| io.dropwizard.metrics | JVM-metrikák | 4.2.30 |
| io.dropwizard.metrics | Metrikai szervletek | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all csomag | 4.1.118.Final |
| io.netty | Netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | Netty HTTP kodek | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-zokni | 4.1.118.Final |
| io.netty | netty-közös | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | Verziószám: 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-osztályok | 2.0.70.Final |
| io.netty | Netty-transport | 4.1.118.Final |
| io.netty | netty-szállítási-osztályok-epoll | 4.1.118.Final |
| io.netty | Netty szállítási osztályok - kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (Unix-alapú közös natív szállítás) | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_általános | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway (egyszerű kliens tolókapu) | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | egyszerűgaming_kliens_szervlet_általános | 0.16.1-databricks |
| io.prometheus | egyszerű kliens nyomkövető közös | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_nyomkövető_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | gyűjtő | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktiválás | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | savanyított zöldség | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv (egy CSV-fájlokat kezelő könyvtár) | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-szoftverfejlesztőkészlet (SDK) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | TávoliTea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | karakterláncsablon | 3.2.1 |
| org.apache.ant | hangya | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | nyíl alakú formátum | 18.2.0 |
| org.apache.arrow | nyíl memóriaegység | 18.2.0 |
| org.apache.arrow | Arrow-Memória-Netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-korrekció | 18.2.0 |
| org.apache.arrow | irányvektor | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-kollekciók4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (közös szöveg) | 1.13.0 |
| org.apache.curator | kurátor-ügyfél | 5.7.1 |
| org.apache.curator | kurátor-keretrendszer | 5.7.1 |
| org.apache.curator | receptek kurátortól | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | adatvázlatok-memória | 3.0.2 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop kliens futásideje | 3.4.1 |
| org.apache.hive | hive-beeline (eszköz) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-kliens | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde (sorozatok és deserializáció) | 2.3.10 |
| org.apache.hive | hive-shims (hive kiegészítő modulok) | 2.3.10 |
| org.apache.hive | hive-storage-api (hive tárolási API) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler (méhkas-behúzási-ütemező) | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | borostyánkő | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-elrendezés-sablon-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-formátum | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-illesztékek | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0,9,3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | célközönség megjegyzései | 0.13.0 |
| org.apache.zookeeper | állatkerti gondozó | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | ellenőr-képzettség | 3.43.0 |
| org.codehaus.janino | közösségi fordítóprogram | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-kontinuáció | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http (egy Java HTTP szerver implementáció) | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty webszerver | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty webalkalmazás | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-kommon | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-szerver | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi erőforrás-kereső | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-újracsomagolt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (Jersey konténer szervlet) | 2.41. |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41. |
| org.glassfish.jersey.core | jersey-ügyfél | 2.41. |
| org.glassfish.jersey.core | jersey-közös | 2.41. |
| org.glassfish.jersey.core | jersey-szerver | 2.41. |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41. |
| org.hibernate.validator | hibernate-validator (a Hibernate hitelesítő) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (naplózó rendszer) | 3.4.1.Végleges |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Széljegyzetek | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | teszt-interfész | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest tesztelési keretrendszerrel kompatibilis | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl (nyílt forráskódú szoftver) | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Jótanács
Ha szeretné látni azoknak a Databricks Runtime-verzióknak a kiadási megjegyzéseit, amelyek elérték a támogatás megszűnését (EoS), tekintse meg a Támogatás megszűnéséhez kapcsolódó Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.