Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Megjegyzés:
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. A támogatott Databricks Runtime-verziók teljes listáját lásd a Databricks Runtime kiadási megjegyzések: változatok és kompatibilitás oldalon.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.2 által működtetett Databricks Runtime 16.3-ról nyújtanak információkat.
A Databricks 2025 márciusában adta ki ezt a verziót.
Viselkedési változások
Hibajavítás az automatikus betöltő beállításaihoz: modifiedBefore, modifiedAfterpathGlobFilter
Korábban az automatikus betöltő beállításainak modifiedBeforemodifiedAfterpathGlobFilter módosítása nem volt hatással. Ez a probléma már ki lett javítva.
A szűrők értékeinek módosításakor az Automatikus betöltő betölti a szűrőket átadó új fájlokat. Ha kevesebb fájl jogosult a frissített szűrőértékek alapján, a már nem jogosult fájlok nem lesznek eltávolítva a tárolóból, hanem megmaradnak.
Javított hibaüzenet, amikor a kafka.sasl.client.callback.handler.class érvénytelen értéket kap.
Ez a kiadás tartalmaz egy módosítást, amely során egy részletesebb hibaüzenet jelenik meg, amikor a kafka.sasl.client.callback.handler.class érvénytelen értéket kap.
Az új hibaüzenet org.apache.spark.sql.AnalysisException: [RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.KAFKA_CLIENT_CALLBACK_SHADED_CLASS] The option kafka.sasl.client.callback.handler.class has restricted values on Shared clusters for the kafka source. The Kafka client callback class must be "shadedmskiam.software.amazon.msk.auth.iam.IAMClientCallbackHandler". SQLSTATE: 0A000
Korábban a visszakapott hibaüzenet így volt: org.apache.spark.sql.AnalysisException: [UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED] Streaming options kafka.sasl.client.callback.handler.class are not supported for data source kafka on a shared cluster. Please confirm that the options are specified and spelled correctly, and check https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-shared for limitations. SQLSTATE: 0A000
Új funkciók és fejlesztések
- Az állapotolvasó támogatás általánosan elérhető a szabványos számítási erőforrásokhoz
- A Delta táblaprotokoll leminősítése általánosan elérhető ellenőrzőpont-védelemmel
- Procedurális SQL-szkriptek írása ANSI SQL/PSM alapján (nyilvános előzetes verzió)
- Táblázat- és nézetszintű alapértelmezett rendezés
- Egyéni függőségek telepítése a Unity Catalog Python UDF-jeiben (nyilvános előzetes verzió)
- Több táblaoszlop módosítása egy ALTER TABLE utasításban
-
transformWithStateInPandasA standard számítás támogatása -
MERGE INTORészletes hozzáférés-vezérléssel rendelkező táblák támogatása dedikált számításon (nyilvános előzetes verzió) - Az adatok részletes hozzáférés-vezérlésű táblákhoz való hozzáfűzésének támogatása dedikált számításon
- Továbbfejlesztett támogatás az öncsatolásokhoz a finomhangolt hozzáférés-vezérlésű objektumok esetében dedikált számítási teljesítményen
- Új H3 függvények
A "State reader" támogatás elérhető az általános számításokhoz.
A Structured Streaming lekérdezések állapotinformációinak olvasására szolgáló támogatás már általánosan elérhető a standard hozzáférési móddal konfigurált számításhoz. Lásd: Strukturált streamelési állapotinformációk olvasása.
A Delta tábla protokoll visszaminősítése általánosan elérhető az ellenőrzőpont-védelemmel
DROP FEATURE általánosan hozzáférhető a Delta Lake táblafunkcióinak eltávolításához és a táblaprotokoll visszaminősítéséhez. Alapértelmezés szerint DROP FEATURE mostantól védett ellenőrzőpontokat hoz létre egy optimalizáltabb és egyszerűbb visszalépési élmény érdekében, amely nem igényel várakozási időt vagy előzmény csonkolást. Lásd Delta Lake tábla szolgáltatás megszüntetése és tábla protokoll visszaminősítése.
Procedurális SQL-szkriptek írása ANSI SQL/PSM alapján (nyilvános előzetes verzió)
Mostantól az ANSI SQL/PSM-alapú szkriptelési képességeket használhatja az SQL-lel kapcsolatos eljárási logika írásához, beleértve a vezérlőfolyamat-utasításokat, a helyi változókat és a kivételkezelést. Lásd az SQL-szkriptelést.
Táblázat- és nézetszintű alapértelmezett rendezés
Mostantól megadhat egy alapértelmezett rendezést a táblákhoz és nézetekhez. Ez leegyszerűsíti a táblák és nézetek létrehozását, ahol az összes vagy a legtöbb oszlop ugyanazzal a rendezéssel rendelkezik. Lásd a rendezés-je.
Egyéni függőségek telepítése a Unity Catalog Python UDF-jeiben (nyilvános előzetes verzió)
A Python UDF-ek funkcióinak kiterjesztése a Databricks Runtime-környezeten túl a külső kódtárak egyéni függőségeinek meghatározásával. Lásd: UDF-ek kiterjesztése egyéni függőségekkel.
Több táblaoszlop módosítása egy ALTER TABLE utasításban
A Databricks Runtime 16.3-ban egyetlen ALTER TABLE utasításban több oszlopot is módosíthat. Lásd...ALTER TABLECOLUMN záradékot.
A transformWithStateInPandas támogatása standard számítási esetben
Mostantól használhatja a transformWithStateInPandas a standard hozzáférési móddal konfigurált számításhoz. Lásd: Egyéni állapotalapú alkalmazás létrehozása.
MERGE INTO Részletes hozzáférés-vezérléssel rendelkező táblák támogatása dedikált számításon (nyilvános előzetes verzió)
A Databricks Runtime 16.3 és újabb verziókban a dedikált számítás támogatja MERGE INTO a Unity Catalog-táblákat, amelyek részletes hozzáférés-vezérlést használnak. Az ilyen objektumokból való olvasáshoz hasonlóan a MERGE parancsok automatikusan átadódnak a kiszolgáló nélküli számításnak, ha szükséges.
Lásd a részletes hozzáférés-vezérlést dedikált számítások esetén.
Az adatok részletes hozzáférés-vezérlésű táblákhoz való hozzáfűzésének támogatása dedikált számításon
A Databricks Runtime 16.3-ban és az újabb verziókban a dedikált számítás támogatja a Unity Catalog-objektumok hozzáfűzését, amelyek finomszemcsés hozzáférés-vezérlést használnak. A funkció használatához használja a függvényt DataFrame.write.mode("append") az Apache Spark API-ban. Az ezekből az objektumokból való olvasáshoz hasonlóan a hozzáfűzött írások automatikusan átkerülnek szerver nélküli számításba, ha szükséges.
A dedikált számítás és a részletes hozzáférés-vezérlésű Unity Catalog-objektumok használatával kapcsolatos további információkért lásd a dedikált számítás részletes hozzáférés-vezérlését.
Továbbfejlesztett támogatás az önillesztésekhez finomhangolt hozzáférés-vezérlésű objektumokkal dedikált számítási környezeten
A Databricks Runtime 16.3-as és újabb verzióiban a dedikált számítás részletes hozzáférés-vezérlésének adatszűrési funkciója mostantól automatikusan szinkronizálja a pillanatképeket a dedikált és a kiszolgáló nélküli számítási erőforrások között, kivéve a materializált nézeteket és a Delta Sharing használatával megosztott nézeteket, materializált nézeteket és streamelési táblákat. Ez a továbbfejlesztett funkció biztosítja, hogy az önillesztések azonos eredményeket adjanak vissza adatszűrés használatakor. Lásd a részletes hozzáférés-vezérlést dedikált számítások esetén.
Új H3 függvények
Három új H3-függvény lett hozzáadva: h3_try_coverash3, h3_try_coverash3string és h3_try_tessellateaswkb.
Könyvtárfrissítések
Frissített Python-kódtárak:
- mlflow-skinny 2.15.1-től 2.19.0-ra
Frissített R-kódtárak:
Frissített Java-kódtárak:
Apache Spark
A Databricks Runtime 16.3 tartalmazza az Apache Spark 3.5.2-t. Ez a kiadás tartalmazza a Databricks Runtime 16.2 -ben (EoS) található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-51594] [DBRRM-1604][sc-192125][SQL] Használj üres sémát, amikor egy nem Hive-kompatibilis nézetet mentesz.
- [SPARK-51388] [SC-190503][sql] Az SQL-töredék propagálásának javítása to_timestamp és UNION rendszerben
- [SPARK-51394] [SC-190492][ml] Optimalizálja a statisztikai tesztek további átrendezését
- [SPARK-51385] [SC-190486][sql] Normalizálja a kivetítést, amely hozzá lett adva a DeduplicateRelations folyamatban az unió gyerekkimenetek deduplikációjához.
- [SPARK-51357] [SC-190485][sql] A nézetek naplózási szintjének megőrzése tervmódosítások esetén
- [SPARK-50654] [SC-186686][ss] CommitMetadata a stateUniqueIds értéket a V1-ben Nincs értékre kell állítania
- [SPARK-51362] [SC-190352][sql] Az NextIterator API használatára való áttérés a szomszédos rekordok közötti függőség megszüntetése érdekében.
-
[SPARK-51375] [SC-190355][sql][CONNECT]
SparkConnect(Execution|Session)Manager.periodicMaintenancenaplóüzenetek letiltása - [SPARK-50596] [SC-184060][python] A Py4J frissítése 0.10.9.7-ről 0.10.9.8-ra
- [SPARK-51097] [SC-190456][revert] A RocksDB-példány metrikaváltoztatásának visszavonása
-
[SPARK-51363] [SC-190343][sql]
Desc As JSONklaszterezési oszlopnevek - [SPARK-51373] [SC-190370] [SS] Az oszlopcsalád előtagjának felesleges másolatának eltávolítása a "ReplyChangelog" fájlból
- [SPARK-51378] [SC-190363][core] Alkalmazza a JsonProtocol accumulableExcludeList listát az ExecutorMetricsUpdate és a TaskEndReason objektumokra
- [SPARK-51369] [SC-190253][sql] A kurzorváltozó módosítása, hogy működjön vegyes kis- és nagybetűs nevekkel.
-
[SPARK-51381] [SC-190360][sql][CONNECT]
Session IDmegjelenítése aSpark Connect Sessionoldalon - [SPARK-51119] [SC-188491][sql] A EXISTS_DEFAULT feloldó végrehajtók olvasói nem hívhatják meg a katalógusokat
- [SPARK-51322] [SC-190013][sql] Jobb hibaüzenet a streamelési alkérdés kifejezéshez
- [SPARK-50817] [SC-186642][ss] A RocksDB hibajelentésének javítása
- [SPARK-51370] [SC-190286] Az AstBuilder.scala INSERT INTO elemzési kódjainak egyértelmű fejlesztései
- [SPARK-51083] [SC-189217][core][16.x] Módosítsa a JavaUtils-t úgy, hogy ne nyelje le a InterruptedExceptionst
- [SPARK-51324] [SC-189997][sql] Kijavítottuk a beágyazott FOR utasítás dobásának hibáját üres eredmény esetén
- [SPARK-49756] [SC-178793][sql] A Postgres dialektus támogatja a dátum-idő függvények átadását.
- [SPARK-51270] [SC-190108][sql] Az UUID típus támogatása a Variant-ban
- [SPARK-51310] [SC-190018][sql] Az alapértelmezett sztringgyártó kifejezések típusának feloldása
- [SPARK-49488] [SC-176685][sql] A MySQL-dialektus támogatja a továbbított datetime függvényeket.
- [SPARK-50856] [DBR16.x][sc-189812][SS][python][CONNECT] Spark Connect-támogatás a TransformWithStateInPandashoz Pythonban
-
[SPARK-50553] [SC-190076][connect] Érvénytelen tervüzenet esetén
InvalidPlanInputkivétel dobása - [SPARK-51337] [16.x][sc-190105][SQL] MaxRows hozzáadása a CTERelationDef és a CTERelationRef fájlhoz
- [SPARK-51281] [SC-190033][sql] A DataFrameWriterV2-nek tiszteletben kell tartania az elérési út beállítását
- [SPARK-51323] [SC-190005][python] Ismétlődő "összeg" a Py SQL metrikákon
-
[SPARK-48618] [SC-174007][sql] Az SQLExceptionben visszaadott
ErrorCodeésSQLStatehasználata a hibák pontosabbá tétele érdekében - [SPARK-47871] [SC-162873][sql] Oracle: TimestampType leképezése TIMESTAMP HELYI IDŐZÓNÁVAL
- [SPARK-50993] [SC-187319][sql] A nullDataSourceOption áthelyezése a QueryCompilationErrorsból a QueryExecutionErrorsba
- [SPARK-47761] [SC-162288][sql] Oracle: Az AnsiIntervalTypes olvasásának támogatása
- [SPARK-51265] [SC-189826][sql] A növekményes végrehajtásnak helyesen kell beállítania a parancsvégrehajtási kódot
- [SPARK-50785] [SC-189722][sql] Refaktorálja a FOR utasítást a helyi változók megfelelő használatára.
- [SPARK-51315] [SC-189838][sql] Az objektumszintű rendezések engedélyezése alapértelmezés szerint
- [SPARK-51312] [SC-189824][sql] A createDataFrame javítása RDD[Row]-ból
-
[SPARK-51305] [SC-189625][sql][CONNECT] Javítás
SparkConnectPlanExecution.createObservedMetricsResponse - [SPARK-51313] [SC-189816][python] A PySparkLogger időbélyeg-formátumának javítása
- [SPARK-51095] [SC-189623][core][SQL] A HDFS audit naplók hívókörnyezetének beillesztése a driverből érkező hívásokhoz
- [SPARK-51292] [SC-189566][sql] A PlanTestBase, a ExpressionEvalHelper és a PlanTest szükségtelen öröklésének eltávolítása
- [SPARK-50739] [SC-186903][sql][FOLLOW] A ResolveRecursiveCTESuite egyszerűsítése dsl-lel
- [SPARK-51097] [SC-189428] [SS] Állapottárbeli példánymetrikák hozzáadása a legutóbb feltöltött pillanatkép-verzióhoz a RocksDB-ben
- [SPARK-49912] [SC-189615] Egyszerű CASE utasítás újrabontása az esetváltozó csak egyszer történő kiértékeléséhez
- [SPARK-50655] [16x][sc-189235][SS] A virtuális oszlopcsaláddal kapcsolatos leképezés áthelyezése az adatbázisrétegbe a kódoló helyett
-
[SPARK-51177] [SC-188989][python][CONNECT]
InvalidCommandInputhozzáadása a Spark Connect Python-ügyfélhez -
[SPARK-51278] [SC-189608][python] A JSON formátum megfelelő struktúrájának használata
PySparkLogger - [SPARK-48530] [SC-189357][sql] Helyi változók támogatása az SQL Scriptingben
- [SPARK-51258] [SC-189551][sql] Távolítsa el a szükségtelen öröklést az SQLConfHelperből
- [SPARK-50739] [SC-186818][sql] Rekurzív CTE. Az elemző módosításait a rekurziós összetevők felgöngyölítésére és megoldására végzi.
- [SPARK-51284] [SC-189483][sql] Az SQL-szkript végrehajtásának javítása üres eredményhez
- [SPARK-50881] [SC-188407][python] A gyorsítótárban tárolt sémát használjuk, ahol csak lehetséges a connect dataframe.py-ben
- [SPARK-51274] [SC-189516][python] A PySparkLoggernek figyelembe kell vennie a várt kulcsszóargumentumokat
- [SPARK-50636] [SC-184783][sql] A CTESubstitution.scala kiterjesztése a rekurzió tudatosítására
-
[SPARK-50960] [SC-188821][python][CONNECT]
InvalidPlanInputhozzáadása a Spark Connect Python-ügyfélhez - [SPARK-51109] [SC-188394][sql] CTE a subquery kifejezésben csoportosítási oszlopként
- [SPARK-51067] [16.x][sc-188855][SQL] A DML-lekérdezések munkamenetszint-rendezésének visszaállítása és az objektumszintű rendezés alkalmazása DDL-lekérdezésekhez
- [SPARK-50849] [SC-189071][connect] Példaprojekt hozzáadása a Spark Connect-kiszolgálókódtárak bemutatásához
- [SPARK-51259] [SC-189344][sql] Természetes és "using" illesztési kulcsok kiszámításának átalakítása
- [SPARK-51185] [SC-188832][core] Az egyszerűsítések visszaállítása PartitionedFileUtil API-ra a memóriaigény csökkentése érdekében
- [SPARK-51237] [16x][sc-189028][SS] Api-részletek hozzáadása az új transformWithState segítő API-khoz szükség szerint
- [SPARK-51247] [SC-189236][sql] Helyezze át a SubstituteExecuteImmediate elemet a "resolution" kötegre, és készítse elő az SQL Scripting helyi változóihoz.
-
[SPARK-50403] [SC-186416][sql] Paraméteres
EXECUTE IMMEDIATEjavítása - [SPARK-50598] [SC-183992][sql] Egy kezdeti, no-op PR, amely új paramétereket ad hozzá a már meglévő UnresolvedWith, CTERelationRef és CTERelationDef osztályokhoz a rekurzív CT-k későbbi implementálásához.
- [SPARK-48114] [SC-189176][sql] Subquery Validation áthelyezése a CheckAnalysisból
-
[SPARK-50767] [SC-189169][sql] A
from_jsonkódgenerálás eltávolítása - [SPARK-51242] [SC-189200][conenct][PYTHON] Az oszlop teljesítményének javítása, ha a DQC le van tiltva
- [SPARK-51202] [SC-189208][ml][PYTHON] A munkamenet átadása a metaalgoritmus Python-írók számára
- [SPARK-51246] [SC-189175][sql] Tegye az InTypeCoercion-t feloldott cast-ek létrehozójává.
-
[SPARK-51192] [SC-189070][connect] Tegye láthatóvá
processWithoutResponseObserverForTestingaSparkConnectPlanner-ban - [SPARK-51183] [SC-189010][sql] A Parquet-specifikációra mutató hivatkozás a Variant-dokumentumokban
-
[SPARK-51189] [SC-188829][core] Léptesse elő
JobFailedDeveloperApi -
[SPARK-51184] [SC-188801][core] Távolítsa el a
TaskState.LOSTlogikát a(z)TaskSchedulerImpl-ból/ből - [SPARK-51218] [SC-189012][sql] A map/flatMap elkerülése a NondeterministicExpressionCollection alkalmazásban
- [SPARK-51228] [SC-189022][sql] Alszámítógépes normalizáció bevezetése a NormalizePlan-hez
- [SPARK-51113] [SC-188883][sql] A helyesség javítása a nézeten belüli UNION/EXCEPT/INTERSECT használatakor vagy EXECUTE IMMEDIATE
-
[SPARK-51209] [SC-188987][core] A Java 24+ kezelésére szolgáló
getCurrentUserNamejavítása - [SPARK-50953] [SC-188409][python][CONNECT] Támogatás hozzáadása a nem literális elérési utakhoz a VariantGetben
- [SPARK-51181] [SC-188854] [SQL] Determinizmus kényszerítése a nem determinisztikus kifejezések logikai tervből való kinyerésekor
- [SPARK-50872] [SC-186901][sql][UI] A ToPrettyString kifejezés nem befolyásolja a felhasználói felületi bemutatót
- [SPARK-51150] [SC-188512][ml] A munkamenetet explicit módon adjuk át a meta-algoritmus készítőknek.
- [SPARK-51008] [SC-188655][sql] ResultStage hozzáadása az AQE-hez
- [SPARK-51114] [SC-188633] [SQL] PullOutNondeterministic szabály refaktorálása
- [SPARK-51160] [SC-188666][sql] Literális függvény megoldásának refaktorálása
- [SPARK-51127] [SC-188366][python] A Python-feldolgozó megölése tétlen időtúllépéskor
- [SPARK-51099] [SC-188350][python] Naplók hozzáadása, amikor a Python-feldolgozó elakadtnak tűnik
- [SPARK-51157] [SC-188536][sql] Hiányzó @varargs Scala-annotáció hozzáadása a Scala-függvény API-khoz
-
[SPARK-51155] [CORE] Tegye lehetővé, hogy a
SparkContextmutassa meg a teljes futási időt a leállítás után. - [SPARK-51140] [SC-188487][ml] Mentés előtt rendezze a paramétereket
- [SPARK-51135] [SC-188392][sql] ViewResolverSuite javítása ANSI-módokhoz
- [SPARK-51057] [SC-188191][ss] Scala opcióalapú változat API eltávolítása az értékállapot esetén
- [SPARK-51131] [SC-188359][sql] Kivételt jelez, ha az SQL-szkript EXECUTE IMMEDIATE parancson belül található
- [SPARK-51048] [SC-188369][core] A Java Spark-környezet kilépési kóddal való leállításának támogatása
- [SPARK-50234] [SC-181433][python][SQL] A hibajelzés javítása és a transzponálás tesztelése a DataFrame API kapcsán.
- [SPARK-51074] [SC-188153][ss][CONNECT] Időtúllépés beállítása az inicializálási konfigurációk továbbításához az adatfolyam foreachBatch során.
- [SPARK-48353] [SC-187986][sql] Az SQL Scripting kivételkezelési mechanizmusának bemutatása
- [SPARK-50596] [SC-184060][python] A Py4J frissítése 0.10.9.7-ről 0.10.9.8-ra
- [SPARK-51043] [SC-187928][ss][CONNECT] A Spark Connect foreachBatch finoman részletezett felhasználói naplózása
-
[SPARK-51084] [ES-1336002][sc-188171][SQL] Jelöljön ki megfelelő hibaosztályt
negativeScaleNotAllowedError - [SPARK-51042] [SC-188216][sql] Az intervallumok hónap- és napmezőinek olvasása és írása egyetlen hívással az Unsafe* osztályokban
- [SPARK-51010] [SC-188188][sql] Kijavítottuk az AlterColumnSpec hibát, amely nem megfelelően jelentette a feloldott állapotot
- [SPARK-50799] [SC-188169][python] A rlike, a length, az octet_length, a bit_length és az átalakítás dokstringjének finomítása
-
[SPARK-51061] [SC-187910][core]
Jettyadatainak elrejtése a REST Submission API-ban - [SPARK-51055] [SC-187993][ss][CONNECT] A streamelési foreachBatch-nek egy kísérleten belül init logikát kell meghívnia
- [SPARK-50982] [SC-188059][sql] Több SQL/DataFrame olvasási útvonal funkció támogatása az egyáteresztő elemzőben
-
[SPARK-51081] [SC-188092][sql] Átalakítás
Join.outputegymenetes feloldóhoz -
[SPARK-51064] [SC-188039][sql] Alapértelmezés szerint engedélyezze a
spark.sql.sources.v2.bucketing.enabled - [SPARK-50883] [LC-5998][sc-187120][SQL] Több oszlop módosításának támogatása ugyanabban a parancsban
- [SPARK-51034] [SC-187985][sql] A "Describe as JSON" statisztikai szótár újraformázása a feldolgozhatóság érdekében.
- [SPARK-51058] [SC-187961][python] Kerülje a jvm.SparkSession használatát.
- [SPARK-51056] [SC-187871][python] Kerülje a szükségtelen objektumlétrehozást a SparkSession.getActiveSession alkalmazásban.
- [SPARK-50967] [SC-187860][ss] Lehetőség hozzáadása a kezdeti állapotkulcsok FMGWS-operátoron belüli kibocsátásának kihagyására
- [SPARK-50813] [SC-186457][sql] Csak nem minősített címkenevek engedélyezése SQL-szkripteken belül
- [SPARK-50858] [SC-187399][python] Konfiguráció hozzáadása a Python UDF-veremnyomkövetésének elrejtéséhez
- [SPARK-50853] [SC-187219][core] A temp shuffle fájl írható csatornája bezárása
- [SPARK-50663] [SC-187541][sql] Az IF ELSE utasítás nyelvtani javítása (ELSE IF -> ELSEIF)
-
[SPARK-51027] [SC-187502][sql] A
HiveClient.runSqlHivemeghívásának megakadályozása nem tesztelési környezetben - [SPARK-50977] [SC-187400][sc-187006][CORE] Az akkumulátorok eredményeinek összesítését végző logika rendelkezésre állásának javítása
- [SPARK-51001] [SC-187442][sql] ArrayEquals finomítása
- [SPARK-50962] [SC-187168][sql] Kerüljük el a StringIndexOutOfBoundsException hibát az AttributeNameParserben
- [SPARK-50683] [SC-184728][sql] Egyesítse a közös kifejezést a With-ben, ha csak egyszer van használva
- [SPARK-50959] [SC-187139][ml][PYTHON] Nyeljen el minden kivételt a JavaWrapperben.del
- [SPARK-50558] [SC-187337][sql] A "simpleString" bevezetése az "ExpressionSet"-hez
- [SPARK-50648] [SC-184706][core] A nem futó fázisokban lévő zombifeladatok törlése a feladat megszakítása esetén
-
[SPARK-50990] [SC-187316][sql] Átszervezés
UpCastaAnalyzer - [SPARK-49491] [SC-184714][sql] Az AnyRefMap cseréje HashMap-ra
- [SPARK-50685] [SC-186941][python] A Py4J teljesítményének javítása a getattr használatával
- [SPARK-50688] [SC-1846666][sql] Az xml-írási útvonalban hiányzó sorcímkék kétértelműségének megszüntetése
-
[SPARK-50976] [SC-187265][ml][PYTHON] A
TargetEncodermentésének/betöltésének javítása - [SPARK-49639] [SC-187297][sql] Távolítsa el az ANSI konfiguráció javaslatot az INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION esetében.
- [SPARK-50118] [SC-187110] Visszaállítás: "[CONNECT] Az elkülönített állapotgyorsítótár alaphelyzetbe állítása, amikor a feladatok futnak"
- [SPARK-47579] [16.x][sc-166971][CORE][part3] Spark Core: LogInfo migrálása változókkal strukturált naplózási keretrendszerbe
- [SPARK-50669] [SC-184566][es-1327450][PHOTON][csak teszt] A Photon egységtesztjeinek kiterjesztése a TimestampAdd kifejezéshez long típusokkal
- [SPARK-50909] [SC-187119][python] Hibakezelő beállítása a PythonPlannerRunnersben
- [SPARK-50774] [SC-186349][sql] Rendezési nevek központosítása egy helyen
- [SPARK-50804] [SC-186684][sql] to_protobuf() nem adhat MatchError hibát
- [SPARK-50957] [SC-187136][protobuf] A protobuf.utils.SchemaConverters-t tegyük priváttá
- [SPARK-50900] [SC-186948][ml][CONNECT] VektorUDT és MátrixUDT hozzáadása a ProtoDataTypeshoz
- [SPARK-50895] [SC-186998][sql] Közös felület létrehozása az alapértelmezett sztringtípust létrehozó kifejezésekhez
- [SPARK-50558] [SC-184216][sql] Konfigurálható naplózási korlátok hozzáadása az InSet és az In elemek számához
- [SPARK-50875] [SC-186951][sql][16.x] RTRIM társítások hozzáadása a TVF-hez
-
[SPARK-50579] [SC-183826][sql] Javítás
truncatedString
Databricks ODBC/JDBC meghajtó támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Rendszerkörnyezet
-
Operációs rendszer: Ubuntu 24.04.2 LTS
- Megjegyzés: Ez a Databricks Runtime-tárolók által használt Ubuntu-verzió. A Databricks Runtime-tárolók a felhőszolgáltató virtuális gépein futnak, amelyek más Ubuntu-verziót vagy Linux-disztribúciót használhatnak.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Telepített Python-kódtárak
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| széljegyzetes típusok | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| automatikus parancs | 2.2.2 | azure-core | 1.31.0 | Azure-tároló-blob | 12.23.0 |
| Azure-tároló-fájl-adattó (Azure Storage File Data Lake) | 12.17.0 | backports.tarfile | 1.2.0 | fekete | 24.4.2 |
| villogó | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| Gyorstár-eszközök | 5.3.3 | tanúsítvány | 2024.6.2. | cffi | 1.16.0 |
| Chardet | 4.0.0 | karakterkészlet-normalizáló (charset-normalizer) | 2.0.4 | kattintás | 8.1.7 |
| Cloudpickle | 2.2.1 | kommunikáció | 0.2.1 | ContourPy | 1.2.0 |
| kriptográfia | 42.0.5 | biciklista | 0.11.0 | Cython | 3.0.11 |
| databricks SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy hibakereső eszköz | 1.6.7 |
| dekorátor | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| docstring Markdown-formátummá alakítása | 0.11 | Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 |
| fájlzárolás | 3.15.4 | betűtípusok | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | Google-autentikáció | 2.35.0 |
| google-cloud-core (Google felhő mag) | 2.4.1 | Google felhőtárhely | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media (Google újraindítható média) | 2.7.2 | googleapis-közös-protokollok | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | Idna | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | ragoz | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | izodátum | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_kliens | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy kiterjesztések | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | opentelemetry-szemantikai-konvenciók | 0,48b0 | csomagolás | 24.1 |
| Pandák | 1.5.3 | parso | 0.8.3 | útvonal specifikáció (pathspec) | 0.10.3 |
| bűnbak | 0.5.6 | pexpect | 4.8.0 | párna | 10.3.0 |
| pipa | 24,2 | Platformdirs | 3.10.0 | ábrázolás | 5.22.0 |
| csatlakozós | 1.0.0 | prompt-toolkit: parancssori eszközkészlet | 3.0.43 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser (C és C++ fájlok feldolgozására szolgáló parser) | 2.21 | pydantic (egy Python könyvtár) | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes (egy program vagy eszköz neve) | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc (Python ODBC interfész) | 5.0.1 | pyparsing (egy Python könyvtár a szövegelemzéshez) | 3.0.9 |
| pyright | 1.1.294 | python-dateutil | Szoftver verzió: 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.10.0 | pytool konfiguráció | 1.2.6 | pytz (egy Python könyvtár az időzóna számításokhoz) | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | requests | 2.32.2 |
| kötél | 1.12.0 | Rsa | 4.9 | s3transfer | 0.10.2 |
| scikit-learn (egy Python gépi tanulási könyvtár) | 1.4.2 | scipy (tudományos és műszaki számítási Python könyvtár) | 1.13.1 | tengerben született | 0.13.2 |
| setuptools | 74.0.0 | hat | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id | 5.11 | halmaz adatok | 0.2.0 |
| statsmodels - statisztikai szoftvercsomag | 0.14.2 | Kitartás | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.4.1 |
| jellemzők | 5.14.3 | típusőrző | 4.3.0 | types-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| típusok-kérelmek | 2.31.0.0 | types-setuptools | 68.0.0.0 | Hat típus | 1.16.0 |
| types-urllib3 | 1.26.25.14 | typing_extensions (gépelési kiterjesztések) | 4.11.0 | ujson (JSON-kezelő könyvtár a Pythonban) | 5.10.0 |
| felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | Mi a javítás? | 1.0.2 |
| wheel | 0.43.0 | becsomagolva | 1.14.1 | yapf | 0.33.0 |
| cipzár | 3.17.0 |
Telepített R-kódtárak
Az R könyvtárak a 2024. augusztus 4-i Posit Package Manager CRAN-pillanatképéből vannak telepítve.
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| nyíl | 16.1.0 | jelszókérés | 1.2.0 | Meggyőződj arról, hogy | 0.2.1 |
| háttérportolások | 1.5.0 | alapkép | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit 64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | boot - rendszerindítás | 1.3-30 |
| sört főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.6 |
| bslib | 0.8.0 | gyorsítótár | 1.1.0 | hívásindító | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | kronométer | 2.3-61 |
| osztály | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
| óra | 0.7.1 | fürt | 2.1.6 | kódolási eszközök | 0.2-20 |
| színterület | 2.1-1 | commonmark | 1.9.1 | fordítóprogram | 4.4.0 |
| config | 0.3.2 | ellentmondásos | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.3 | azonosító adatok | 2.0.1 | göndörít | 5.2.1 |
| adat.táblázat | 1.15.4 | adatkészletek | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Leírás | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | kivonat | 0.6.36 |
| lefelé irányított világítású | 0.4.4 | dplyr (adatmanipulációs csomag az R programozási nyelvhez) | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | három pont | 0.3.2 | kiértékel | 0.24.0 |
| rajongók | 1.0.6 | színek | 2.1.2 | gyorstérkép | 1.2.0 |
| fontawesome | 0.5.2 | elveszettek | 1.0.0 | foreach | 1.5.2 |
| külföldi | 0.8-86 | kovácsol | 0.2.0 | fs | 1.6.4 |
| jövő | 1.34.0 | jövő.alkalmaz | 1.11.2 | gargarizál | 1.5.2 |
| általánosítás | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globálisok | 0.16.3 | ragasztó | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower-hegység | 1.0.1 |
| grafika | 4.4.0 | grDevices | 4.4.0 | rács | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | védősisak | 1.4.0 | kikötő | 2.5.4 |
| magasabb | 0.11 | HMS | 1.1.3 | HTML-eszközök | 0.5.8.1 |
| HTML-widgetek | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Azonosítók | 1.0.1 | ini | 0.3.1 |
| iPred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | címkézés | 0.4.3 |
| később | 1.3.2 | rácsszerkezet | 0.22-5 | láva | 1.8.0 |
| életciklus | 1.0.4 | hallgatás | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | Tömeg | 7.3-60.0.1 |
| Mátrix | 1.6-5 | memorizálás | 2.0.1 | módszerek | 4.4.0 |
| mgcv | 1.9-1 | pantomimázás | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| „numDeriv” | 2016. augusztus - 1.1 | openssl (nyílt forráskódú titkosító szoftver) | 2.2.0 | párhuzamos | 4.4.0 |
| párhuzamosan | 1.38.0 | pillér | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | csomag betöltése | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | dicséret | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | haladás | 1.2.3 |
| progressr | 0.14.0 | ígéretek | 1.3.0 | Próto | 1.0.0 |
| közvetít | 0.4-27 | P.S. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | véletlen erdő (randomForest) | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer (egy szoftvercsomag neve) | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reakcióképes | 0.4.4 |
| reactR | 0.6.0 | Readr | 2.1.5 | readxl (Excel fájlokat olvasó programcsomag) | 1.4.3 |
| Receptek | 1.1.0 | Visszavágó | 2.0.0 | visszavágó2 | 2.1.2 |
| Távvezérlők | 2.5.0 | megismételhető példa | 2.1.1 | újraformázás2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1,8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| változatok | 2.1.2 | Szüret | 1.0.4 | Sass | 0.4.9 |
| mérlegek | 1.3.0 | szelekciós eszköz | 0.4-2 | munkamenet-információk | 1.2.2 |
| alakzat | 1.4.6.1 | Fényes | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | térbeli | 7.3-17 |
| splinek | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| statisztika | 4.4.0 | statisztikák4 | 4.4.0 | string | 1.8.4 |
| stringr | 1.5.1 | túlélés | 3.6-4 | magabiztosság | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | Tcl/Tk programozási nyelv és eszközkészlet. | 4.4.0 |
| testthat | 3.2.1.1 | szövegformázás | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| időváltás | 0.3.0 | idődátum | 4032.109 | tinytex | 0,52 |
| eszközök | 4.4.0 | tzdb | 0.4.0 | URL-ellenőrző | 1.0.1 |
| ezt használd | 3.0.0 | utf8 | 1.2.4 | segédprogramok | 4.4.0 |
| univerzálisan egyedi azonosító (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | bruum | 1.6.5 | Waldo | 0.5.2 |
| szőrszál | 0.4.1 | valamivel | 3.0.1 | xfun | 0,46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| YAML (adat-szerializációs formátum) | 2.3.10 | zeallot | 0.1.0 | zip fájl | 2.3.1 |
Telepített Java- és Scala-könyvtárak (Scala 2.12-klaszterverzió)
| Csoportazonosító | A tárgy azonosítója | verzió |
|---|---|---|
| ANTLR (Egy másik eszköz a nyelvi felismeréshez) | ANTLR (Egy másik eszköz a nyelvi felismeréshez) | 2.7.7 |
| com.amazonaws | Amazon Kinesis kliens | 1.12.0 |
| com.amazonaws | AWS Java SDK - Automatikus Skálázás | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (AWS Java SDK konfiguráció) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS Java SDK importexport modul | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms (Amazon Web Services Java SDK KMS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-gépi tanulás | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Támogatás | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf könyvtárak | 1.11.22 |
| com.amazonaws | aws-java-sdk-munkaterületek | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | adatfolyam | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java (Databricks Java SDK) | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-árnyékolt | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | osztálytárs | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotációk | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (adatformátum CBOR) | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson adattípus - Joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1-őslakosok |
| com.github.fommil.netlib | natív rendszer-java | 1.1 |
| com.github.fommil.netlib | natív rendszer-java | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-natív_rendszer-linux-x86_64 | 1.1-őslakosok |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | hibára hajlamos annotációk | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guáva | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profilkészítő | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.KIADÁS |
| com.lihaoyi | forráskód_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (kompressziós algoritmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl (JAXB implementáció) | 2.2.11 |
| com.tdunning | JSON formátum | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lencsék_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-elemzők | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| „commons-codec” | „commons-codec” | 1.16.0 |
| commons-collections (közös gyűjtemények könyvtár) | commons-collections (közös gyűjtemények könyvtár) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-fájlfeltöltés | Commons-fájlfeltöltés | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| közös naplózás | közös naplózás | 1.1.3 |
| közös medence | közös medence | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | légkompresszor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.3 |
| io.dropwizard.metrics | metrikák annotációja | 4.2.19 |
| io.dropwizard.metrics | metrikai magrész | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | mutatók-egészségügyi ellenőrzések | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.19 |
| io.dropwizard.metrics | metrics-json (metrikák JSON formátumban) | 4.2.19 |
| io.dropwizard.metrics | JVM-metrikák | 4.2.19 |
| io.dropwizard.metrics | Metrikai szervletek | 4.2.19 |
| io.netty | netty-all csomag | 4.1.108.Final |
| io.netty | Netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | Netty HTTP kodek | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-zokni | 4.1.108.Final |
| io.netty | netty-közös | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-Windows-x86_64 |
| io.netty | netty-tcnative-osztályok | 2.0.61.Final |
| io.netty | Netty-transport | 4.1.108.Final |
| io.netty | netty-szállítási-osztályok-epoll | 4.1.108.Final |
| io.netty | Netty szállítási osztályok - kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (Unix-alapú közös natív szállítás) | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | egyszerűkliens_általános | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway (egyszerű kliens tolókapu) | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | gyűjtő | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktiválás | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | savanyított zöldség | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv (egy CSV-fájlokat kezelő könyvtár) | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-szoftverfejlesztőkészlet (SDK) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | TávoliTea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | karakterláncsablon | 3.2.1 |
| org.apache.ant | hangya | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | nyíl alakú formátum | 15.0.0 |
| org.apache.arrow | nyíl memóriaegység | 15.0.0 |
| org.apache.arrow | Arrow-Memória-Netty | 15.0.0 |
| org.apache.arrow | irányvektor | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-kollekciók4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (közös szöveg) | 1.10.0 |
| org.apache.curator | kurátor-ügyfél | 2.13.0 |
| org.apache.curator | kurátor-keretrendszer | 2.13.0 |
| org.apache.curator | receptek kurátortól | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | adatvázlatok-memória | 2.0.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop kliens futásideje | 3.3.6 |
| org.apache.hive | hive-beeline (eszköz) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-kliens | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (sorozatok és deserializáció) | 2.3.9 |
| org.apache.hive | hive-shims (hive kiegészítő modulok) | 2.3.9 |
| org.apache.hive | hive-storage-api (hive tárolási API) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler (méhkas-behúzási-ütemező) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | borostyánkő | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-elrendezés-sablon-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-illesztékek | 1.9.2 |
| org.apache.thrift | libfb303 | 0,9,3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | célközönség megjegyzései | 0.13.0 |
| org.apache.zookeeper | állatkerti gondozó | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | ellenőr-képzettség | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | Jackson-térképező-ASL | 1.9.13 |
| org.codehaus.janino | közösségi fordítóprogram | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-kontinuáció | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http (egy Java HTTP szerver implementáció) | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty webszerver | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty webalkalmazás | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-kommon | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-szerver | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi erőforrás-kereső | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-újracsomagolt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (Jersey konténer szervlet) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-ügyfél | 2.40 |
| org.glassfish.jersey.core | jersey-közös | 2.40 |
| org.glassfish.jersey.core | jersey-szerver | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator (a Hibernate hitelesítő) | 6.1.7.Végleges |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (naplózó rendszer) | 3.3.2.Végleges verzió |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Széljegyzetek | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Hézagolók | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | teszt-interfész | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest tesztelési keretrendszerrel kompatibilis | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl (nyílt forráskódú szoftver) | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |