Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Megjegyzés:
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd: Databricks Runtime release notes versions and compatibility.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.2 által működtetett Databricks Runtime 16.2-ről nyújtanak információkat.
A Databricks 2025 februárjában adta ki ezt a verziót.
Viselkedési változások
Az ANALYZE most kihagyja a nem támogatott típusok kolumáit
ANALYZE TABLE többé nem jelenik meg hibaüzenet, ha olyan táblán fut, amelyen nem támogatott típusok, például ARRAY vagy MAP. A nem támogatott oszlopok mostantól automatikusan ki lesznek hagyva. Azok a felhasználók, amelyek olyan logikát implementáltak, amely ezeket a hibákat várta, frissíteniük kell a kódjukat.
A Delta Sharingben a táblaelőzmények alapértelmezés szerint engedélyezve lesznek
Az SQL ALTER SHARE <share> ADD TABLE <table> parancsával létrehozott megosztásoknál mostantól alapértelmezettként engedélyezettek az előzménymegosztások (WITH HISTORY). Lásd a(z) ALTER SHARE.
A hitelesítő adatok SQL-utasításai hibaüzenetet adnak vissza, ha a hitelesítő adatok típusa nem egyezik
Ebben a kiadásban, ha a hitelesítőadat-kezelési SQL-utasításban megadott hitelesítő adattípus nem egyezik meg a hitelesítő argumentum típusával, a rendszer hibát ad vissza, és az utasítás nem fut. Ha például az utasítás DROP STORAGE CREDENTIAL 'credential-name', ha credential-name nem tárolási hitelesítő adat, az utasítás hibaüzenettel meghiúsul.
Ez a módosítás segít megelőzni a felhasználói hibákat. Korábban ezek az utasítások sikeresen lefuttak, még akkor is, ha a megadott hitelesítő adattípusnak nem megfelelő hitelesítő adatokat adták át. A következő utasítás például sikeresen törli storage-credential: DROP SERVICE CREDENTIAL storage-credential.
Ez a változás a következő nyilatkozatokat érinti:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT... RA... HITLESÍTÉSI ADAT
- REVOKE... RA... HITLESÍTÉSI ADAT
- SHOW GRANTS KI…HITELTANÚSÍTVÁNY
Új funkciók és fejlesztések
-
Egyéni állapotalapú alkalmazások létrehozása
transformWithState - Hitelesítés a felhőbeli objektumtárban szolgáltatás hitelesítő adataival
- A Unity Catalog által szabályozott hozzáférés a külső felhőszolgáltatásokhoz, szolgáltatás hitelesítő adatok használatával, mostantól GA
- A jegyzetfüzetek munkaterületfájlokként támogatottak
-
A >
timestampdifftimestampaddhasználata a létrehozott oszlopkifejezésekben - Az SQL-folyamat szintaxisának támogatása
-
HTTP-kérés létrehozása a
http_requestfüggvény használatával -
Frissítés a
DESCRIBE TABLEmetaadatok strukturált JSON-ként való visszaadásához - Záró üres érzéketlen rendezések
- Apache Iceberg-táblák konvertálása gyűjtőparticionálással nem particionált Delta-táblákká
-
A standard hozzáférési mód (korábban megosztott hozzáférési mód) számítása mostantól támogatja a Spark Scala metódusokat
foreach,foreachBatchésflatMapGroupsWithState
Egyéni állapotalapú alkalmazások létrehozása transformWithState
Mostantól a strukturált streamelési lekérdezések részeként egyéni állapotalapú alkalmazásokat implementálhat és a kapcsolódó API-kat használhatja transformWithState . Lásd : Egyéni állapotalapú alkalmazás létrehozása.
Hitelesítés a felhőbeli objektumtárban szolgáltatás hitelesítő adataival
Mostantól a Databricks szolgáltatás hitelesítő adataival hitelesítheti magát a felhőbeli objektumtárolóban az Automatikus betöltővel. Lásd: Automatikus betöltő streamek konfigurálása fájlértesítési módban.
A Unity katalógus által szabályozott hozzáférése a szolgáltatás hitelesítő adataival rendelkező külső felhőszolgáltatásokhoz mostantól ga
A szolgáltatás hitelesítő adatai egyszerű és biztonságos hitelesítést tesznek lehetővé a felhőbeli bérlő szolgáltatásaival az Azure Databricksből. A Databricks Runtime 16.2-ben a szolgáltatás hitelesítő adatai általánosan elérhetők, és mostantól támogatják a Scala SDK-kat a nyilvános előzetes verzióban támogatott Python SDK mellett. Lásd: Szolgáltatás hitelesítő adatainak létrehozása.
A jegyzetfüzetek munkaterületfájlokként támogatottak
A Databricks Runtime 16.2-ben és újabb verziókban a jegyzetfüzetek munkaterületfájlokként támogatottak. Mostantól programozott módon kezelheti a jegyzetfüzeteket bárhonnan, ahol a munkaterület fájlrendszere elérhető, beleértve a jegyzetfüzetek írását, olvasását és törlését, mint bármely más fájlt. További információ: Fájlok és könyvtárak programozott létrehozása, frissítése és törlése.
A timestampdiff & timestampadd használata generált oszlopkifejezésekben
A Databricks Runtime 16.2-ben és újabb verziókban használhatja az időbélyegzőt és az időbélyegző függvényt a Delta Lake által létrehozott oszlopkifejezésekben. Lásd a Delta Lake által létrehozott oszlopokat.
Az SQL-folyamat szintaxisának támogatása
A Databricks Runtime 16.2-ben és újabb verziókban SQL-folyamatokat írhat. Az SQL-folyamatok egy szabványos lekérdezést( például SELECT c2 FROM T WHERE c1 = 5) építenek be lépésenkénti sorrendbe, ahogyan az a következő példában látható:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Az SQL-folyamatok támogatott szintaxisának megismeréséhez tekintse meg SQL-folyamat szintaxisánakcímű témakört.
Az iparágakat átívelő bővítmény hátteréről lásd: SQL-nek problémái vannak. Kijavíthatjuk őket: Csőszintaxis az SQL-ben (a Google Research által).
HTTP-kérés létrehozása a http_request függvénnyel
A Databricks Runtime 16.2-ben és újabb verziókban HTTP-kapcsolatokat hozhat létre , és rajtuk keresztül HTTP-kéréseket kezdeményezhet a http_request függvény használatával.
A DESCRIBE TABLE frissítése strukturált JSON-ként adja vissza a metaadatokat
A Databricks Runtime 16.2-ben és újabb verziókban a parancs használatával JSON-dokumentumként visszaadhatja a DESCRIBE TABLE AS JSON tábla metaadatait. A JSON-kimenet strukturáltabb, mint az alapértelmezett, ember által olvasható jelentés, és programozott módon használható a tábla sémájának értelmezéséhez. További információ: DESCRIBE TABLE AS JSON.
Végén álló üreshelyet nem figyelembe vevő rendezések
A Databricks Runtime 16.2 támogatja az üres érzéketlen rendezéseket, és hozzáadja a Databricks Runtime 16.1-ben hozzáadott rendezési támogatást. Ezek a kollációk például a 'Hello' és 'Hello ' értékeket egyenlőként kezelik. További információért lásd: RTRIM összehasonlítás.
Apache Iceberg-táblák konvertálása gyűjtőparticionálással nem particionált Delta-táblákká
Az CONVERT TO DELTA és CREATE TABLE CLONE az utasítások mostantól támogatják az Apache Iceberg-táblák gyűjtőparticionálással történő konvertálását egy nem particionált Delta-táblává.
A standard hozzáférési mód (korábban megosztott hozzáférési mód) számítása mostantól támogatja a Spark Scala metódusokat foreach, foreachBatchés flatMapGroupsWithState
A Databricks Runtime 16.2 és újabb verziókban a standard hozzáférési módú számítás mostantól támogatja a Scala metódusokat DataStreamWriter.foreachBatch és KeyValueGroupedDataset.flatMapGroupsWithStatea . A Databricks Runtime 16.1-ben és újabb verziókban a standard hozzáférési módú számítás mostantól támogatja a Scala metódust DataStreamWriter.foreach.
Hibajavítások
Továbbfejlesztett növekményes klónfeldolgozás
Ez a kiadás tartalmaz egy javítást egy peremes esethez, ahol egy növekményes CLONE újramásolhatja a forrástáblából a céltáblába másolt fájlokat. Lásd: Tábla klónozása az Azure Databricks szolgáltatásban.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- Frissített R-kódtárak:
- Frissített Java-kódtárak:
- org.json4s.json4s-ast_2.12 3.7.0-M11-től 4.0.7-ig
- org.json4s.json4s-core_2.12 3.7.0-M11-től 4.0.7-ig
- org.json4s.json4s-jackson_2.12 3.7.0-M11-től 4.0.7-ig
- org.json4s.json4s-scalap_2.12 3.7.0-M11-től 4.0.7-ig
Apache Spark
A Databricks Runtime 16.2 tartalmazza az Apache Spark 3.5.2-t. Ez a kiadás tartalmazza a Databricks Runtime 16.1 -ben (EoS) található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
-
[SPARK-49966] "[SC-179501][sql] A
InvokeimplementálásJsonToStructsfrom_json()" visszaállítása - [SPARK-50904] [SC-186976][sql] A collation expression walker lekérdezés végrehajtásának javítása
- [SPARK-49666] [SQL] Az InSet-kifejezés vágási tesztjeinek engedélyezése
- [SPARK-50669] [SC-184566][es-1327450][SQL] A TimestampAdd kifejezés aláírásának módosítása
-
[SPARK-50795] [16.x][sc-186719][SQL] Tároló időbélyege típusként
longa LinkedHashMap-bandescribe - [SPARK-50870] [SC-186950][sql] Adja hozzá az időzónát a V2ScanRelationPushDown időbélyegzőbe történő öntésekor
- [SPARK-50735] [SC-186944][connect] Az ExecuteResponseObserver hibája végtelen újracsatlakozási kéréseket eredményez
- [SPARK-50522] [SC-186500][sql] Határozatlan rendezés támogatása
- [SPARK-50525] [SC-186058][sql] InsertMapSortInRepartitionExpressions Optimizer-szabály definiálása
- [SPARK-50679] [SC-184572][sql] Duplikált gyakori kifejezések a különböző With-ben csak egyszer vetítve
- [SPARK-50847] [SC-186916] [SQL] Megtagadja az ApplyCharTypePadding használatát adott in kifejezésekre
- [SPARK-50714] [SC-186786][sql][SS] A TransformWithState sémafejlődésének engedélyezése Avro-kódolás használatakor
-
[SPARK-50795] [SC-186390][sql] Az összes JSON-dátum megjelenítése ISO-8601 formátumban és típusokként
dataType.simpleString - [SPARK-50561] [SC-185924][sql] Databricks Runtime 16.x cherrypick: A típuskényszerítés és a UNIFORM SQL-függvény határellenőrzésének javítása
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalogtámogatja abuiltinmágikus értéket - [SPARK-50831] [SC-186736][sql] Alapértelmezés szerint engedélyezi a vágási rendezést
-
[SPARK-50263] [SC-186793][connect] Csere erre
System.currentTimeMillis:System.nanoTime - [SPARK-48730] [SC-184926][sql] CreateSQLFunctionCommand implementálása AZ SQL Scalar és a Table Functions számára
- [SPARK-50830] [SC-186718] [SQL] Kettős futtatású elemzési eredményként adja vissza az egyirányú eredményt
- [SPARK-50707] [SC-186098][sql] A karakter/varchar ki- és beöntésének engedélyezése
- [SPARK-49490] [SC-182137][sql] Teljesítménytesztek hozzáadása az initCap-hoz
-
[SPARK-50529] [SC-184535][sql] Karakter/varchar viselkedésének módosítása a
spark.sql.preserveCharVarcharTypeInfokonfiguráció alatt - [SPARK-49632] [SC-184179][sql] Távolítsa el az ANSI konfigurációs javaslatát a CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][python][SQL] Kijavítottuk a hibát, amely miatt a null variánsok átadása a createDataFrame-ben meghiúsult, és a Spark Connectben a createDataFrame-ben hozzáadta a Variant-támogatást
-
[SPARK-50828] [SC-186493][python][ML][connect] Elavult
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Elemzési hiba alapján elemezett készlet
- [SPARK-50824] [SC-186472][python] Ne importáljon opcionális Python-csomagokat ellenőrzésre
- [SPARK-50755] [SC-185521][sql] Szép terv megjelenítés az InsertIntoHiveTable-hoz
- [SPARK-50789] [SC-186312][connect] A beírt aggregációk bemeneteit elemezni kell
- [SPARK-50791] [SC-185867][sc-186338][SQL] Az NPE javítása a State Store hibakezelésében
-
[SPARK-50801] [SC-186365] [SQL] Javítsa
PlanLogger.logPlanResolution, hogy csak megoldatlan és megoldott terveket jelenítsen meg - [SPARK-50749] [SC-185925][sql] Rendezési hiba javítása a CommutativeExpression.gatherCommutative metódusban
- [SPARK-50783] [SC-186347] A JVM profilozó eredményfájl nevének és elrendezésének kanonizálása a DFS-en
- [SPARK-50790] [SC-186354][python] Parse json implementálása a pysparkban
- [SPARK-50738] [SC-184856][python] Frissítés feketére 23.12.1-re
- [SPARK-50764] [SC-185930][python] Az xpathhoz kapcsolódó metódusok doktringingjének finomítása
-
[SPARK-50798] [SC-186277][sql] Fejlesztés
NormalizePlan - [SPARK-49883] [SC-183787][ss] Állapot tárhely ellenőrzési pont struktúra V2 integráció a RocksDB-vel és a RocksDBFileManagerrel
- [SPARK-50779] [SC-186062][sql] Funkciójelző hozzáadása objektumszintű rendezésekhez
- [SPARK-50778] [SC-186183][python] MetadataColumn hozzáadása a PySpark DataFrame-hez
- [SPARK-49565] [SC-186056][sql] Databricks Runtime 16.x cherrypick: Az automatikusan létrehozott kifejezési aliasok javítása pipe SQL-operátorok használatával
- [SPARK-50541] [16.x][sc-184937] A táblázat leírása JSON-ként
- [SPARK-50772] [SC-185923][sql] Databricks Runtime 16.x cherrypick: A tábla aliasainak megtartása az SET operátorok: EXTEND, DROP után
- [SPARK-50769] [SC-185919][sql] A ClassCastException javítása a HisztogramNumericben
- [SPARK-49025] [SC-174667] Delta-kód diffjének szinkronizálása a Databricks Runtime-ra
- [SPARK-50752] [SC-185547][python][SQL] Konfigurációk bevezetése a Python UDF arrow nélküli hangolásához
-
[SPARK-50705] [SC-185944][sql] Zárolásmentessé tétele
QueryPlan - [SPARK-50690] [16.x][sc-184640][SQL] Eltérés javítása a lekérdezés kimeneti oszlopainak idézőjelek megtekintésekor DESCRIBE TABLE
- [SPARK-50746] [SC-184932][sql] Cserélje le bármelyiket VariantPathSegmentre.
-
[SPARK-50715] [SC-185546][python][CONNECT]
SparkSession.Builderbeállítja a konfigurációkat a kötegben - [SPARK-50480] [SC-183359][sql] CharType és VarcharType kiterjesztése StringType-ból
- [SPARK-50675] [SC-184539][sql] Tábla- és nézetszintű rendezések támogatása
-
[SPARK-50409] [SC-184516][sql] A halmaz azon utasításának
;kijavítása, amely figyelmen kívül hagyhatóSET;a sor végén,SET -v;ésSET key; - [SPARK-50743] [SC-185528][sql] A CTERelationDef és a CTERelationRef azonosítók normalizálása
- [SPARK-50693] [SC-184684][connect] A TypedScalaUdf bemeneteit elemezni kell
- [SPARK-50744] [SC-184929][sql] Teszteset hozzáadása megtekintési/CTE-névfeloldási elsőbbséghez
- [SPARK-50710] [SC-184767][connect] Támogatás hozzáadása opcionális ügyfél-újracsatlakozáshoz a munkamenetekhez a kiadás után
- [SPARK-50703] [SC-184843][python] A regexp_replace, regexp_substr és regexp_instr dokumentumainak finomítása
-
[SPARK-50716] [SC-184823][core] A metódus szimbolikus hivatkozásainak tisztítási logikájának
JavaUtils.deleteRecursivelyUsingJavaIOjavítása - [SPARK-50630] [SC-184443][sql] Fix GROUP BY ordinal support for pipe SQL AGGREGATE operátorok
- [SPARK-50614] [SC-184729][sql] Variant-aprítási támogatás hozzáadása a Parquethez
- [SPARK-50661] [SASP-4936] Adjon hozzá visszamenőleges kompatibilitást a régi ügyfél FEB-hez.
-
[SPARK-50676] [SC-184641][sql] Távolítsa el a nem használt
private lazy val mapValueContainsNullhelyrőlElementAt -
[SPARK-50515] [SC-183813][core] Írásvédett felület hozzáadása
SparkConf - [SPARK-50697] [SC-184702][sql] A tail-recursion engedélyezése, ahol csak lehetséges
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]A FlatMapGroupsWithState állapotséma javítása a Spark Connectben, ha nincs kezdeti állapot
- [SPARK-50701] [SC-184704][python] A diagramkészítéshez a minimális ábrázolási verzió szükséges
- [SPARK-50702] [SC-184727][python] Finomítja a regexp_count, regexp_extract és regexp_extract_all
- [SPARK-50499] [SC-184177][python] A BasePythonRunner metrikáinak elérhetővé tévő
- [SPARK-50692] [SC-184705][16.x] RPAD-leküldéses támogatás hozzáadása
- [SPARK-50682] [SC-184579][sql] A belső aliast kanonizálni kell
- [SPARK-50699] [SC-184695][python] DDL-sztring elemzése és létrehozása megadott munkamenettel
- [SPARK-50573] [SC-184568][ss] Állapotséma-azonosító hozzáadása állapotsorokhoz a sémafejlődéshez
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] A Spark Connect Scala foreachBatch impl javítása. az adathalmaz[T] támogatásához.
- [SPARK-50689] [SC-184591][sql] Determinisztikus rendezés kényszerítése LCA-projektlistákban
- [SPARK-50696] [SC-184667][python] Py4J-hívás optimalizálása DDL-elemzési metódushoz
- [SPARK-49670] [SC-182902][sql] Vágási rendezés engedélyezése az összes átmenő kifejezéshez
-
[SPARK-50673] [SC-184565][ml] A modell együtthatóinak kétszeri bejárása a konstruktorban
Word2VecModel - [SPARK-50687] [SC-184588][python] Optimalizálja a logikát a DataFrameQueryContext veremkövetéseinek lekéréséhez
- [SPARK-50681] [SC-184662][python][CONNECT] Gyorsítótárazza a MapInXXX és az ApplyInXXX elemzett sémáját
- [SPARK-50674] [SC-184589][python] A "megszakítás" metódus meglétének javítása az UDTF-kiértékelésben
- [SPARK-50684] [SC-184582][python] A Py4J teljesítményének javítása a DataFrameQueryContextben
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Az állapot metaadatainak új verziójának támogatása a TransformWithStateInPandashoz
- [SPARK-50602] [SC-184439][sql] A transzponálás javítása a megfelelő hibaüzenet megjelenítéséhez érvénytelen indexoszlopok megadásakor
- [SPARK-50650] [SC-184532][sql] A naplózás javítása az egyáteresztő elemzőben
- [SPARK-50665] [SC-184533][sql] LocalRelation helyettesítése ComparableLocalRelation in NormalizePlan
- [SPARK-50644] [SC-184486][sql] Olvasási változatstruktúra a Parquet-olvasóban.
- [SPARK-49636] [SC-184089][sql] Távolítsa el az ANSI konfigurációs javaslatát INVALID_ARRAY_INDEX és INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] A Union kimenetének újrabontása az egyátmenetes elemzőben való újbóli használathoz
- [SPARK-50659] [SC-184512][sql] Az unióval kapcsolatos hibák áthelyezése a QueryCompilationErrorsba
- [SPARK-50530] [SC-183419][sql] Hibás implicit sztringtípus környezeti számításának javítása
- [SPARK-50546] [SC-183807][sql] A rendezési típus kényszerítéséhez mellékjeles öntött támogatás hozzáadása
- [SPARK-50405] [SC-182889][sql] Az összetett adattípusok rendezési típusának kényszerítése megfelelő kezelése
- [SPARK-50637] [SC-184434][sql] Az egyátadásos elemző kódstílusának javítása
- [SPARK-50638] [SC-184435][sql] A nézetfelbontás újrabontása a külön fájlba, hogy újra felhasználhassa az egyáteresztő elemzőben
- [SPARK-50615] [SC-184298][sql] A változat leküldése a vizsgálatba.
- [SPARK-50619] [SC-184210][sql] A VariantGet.cast újrabontása az öntött argumentumok csomagolásához
- [SPARK-50599] [SC-184058][sql] Hozza létre a DataEncoder tulajdonságot, amely lehetővé teszi az Avro és unsafeRow kódolást
- [SPARK-50076] [SC-183809] Naplófájlok javítása
- [SPARK-50597] [SC-183972][sql] Kötegelt újrabontás az Optimizer.scala és a SparkOptimizer.scala alkalmazásban
- [SPARK-50339] [SC-183063][spark-50360][SS] A változásnapló engedélyezése az életútadatok tárolásához
- [SPARK-50526] [SC-183811][ss] Tárolókódolási formátum hozzáadása az eltolási naplóba, és letiltja a nem támogatott állapotalapú operátorok használatát az avro használatával
- [SPARK-50540] [SC-183810][python][SS] A StatefulProcessorHandle sztringséma javítása
- [SPARK-50157] [SC-183789][sql] Először a SparkSession által biztosított SQLConf használatával.
- [SPARK-48898] [SC-183793][sql] A Nullability helyes beállítása a Variant sémában
- [SPARK-50559] [SC-183814][sql] Store Kivéve, Intersect és Union kimenetei lusta vals
- [SPARK-48416] [SC-183643][sql] Beágyazott korrelációjú kifejezés támogatása
- [SPARK-50428] [SC-183566][ss][PYTHON] A TransformWithStateInPandas támogatása kötegelt lekérdezésekben
- [SPARK-50063] [SC-183350][sql][CONNECT] A Variant támogatása a Spark Connect Scala-ügyfélben
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementálás
StructType.toDDL - [SPARK-50443] [SC-182590][ss] A Guava cache által a RocksDBStateStoreProviderben bevezetett Maven-buildelési hibák javítása
- [SPARK-50491] [SC-183434][sql] Kijavítottuk a hibát, amely miatt az üres BEGIN END-blokkok hibát jeleznek
-
[SPARK-50536] [SC-183443][core] A letöltött archív fájlméretek
SparkContextnaplózásaExecutor - [SPARK-45891] [SC-183439][sql] A bináris változat újraépítése az aprított adatokból.
- [SPARK-49565] [SC-183465][sql] SQL-csőszintaxis hozzáadása a FROM operátorhoz
- [SPARK-50497] [SC-183338][sql] Hibás lekérdezések megfelelő üzenettel, ha a MultiAlias nem generátorfüggvényt tartalmaz
- [SPARK-50460] [SC-183375][python][CONNECT] A Csatlakozás kivételkezelésének általánosítása és egyszerűsítése
-
[SPARK-50537] [SC-183452][connect][PYTHON] A felülírt tömörítési beállítás javítása
df.write.parquet - [SPARK-50329] [SC-183358][sql] javítás InSet$toString
-
[SPARK-50524] [SC-183364][sql] Alacsonyabb
RowBasedKeyValueBatch.spillfigyelmeztető üzenet a hibakeresési szinthez -
[SPARK-50528] [SC-183385][connect] Váltás
InvalidCommandInputa közös modulra - [SPARK-50017] [SC-182438][ss] Avro kódolás támogatása a TransformWithState operátorhoz
-
[SPARK-50463] [SC-182833][sql] Javítás
ConstantColumnVectoroszlopsorról sorra konvertálással - [SPARK-50235] [SC-180786][sql] A ColumnVector-erőforrás törlése a ColumnarToRowExec összes sorának feldolgozása után
- [SPARK-50516] [SC-183279][ss][MINOR] A StreamManualClock használatára vonatkozó init állapotteszt javítása
- [SPARK-50478] [SC-183188][sql] StringType-egyeztetés javítása
- [SPARK-50492] [SC-183177][ss] Kijavítottuk a java.util.NoSuchElementException hibát, ha az esemény időoszlopa a dropDuplicatesWithinWatermark után el lett vetve
- [SPARK-49566] [SC-182589][sql] Sql-cső szintaxisának hozzáadása az SET operátorhoz
- [SPARK-50449] [SC-183178][sql] Kijavítottuk az SQL Scripting nyelvtanát, amely üres testeket tesz lehetővé a hurkok, a HA és a CASE számára
-
[SPARK-50251] [SC-180970][python] Hozzáadás
getSystemPropertya PySparkhozSparkContext - [SPARK-50421] [SC-183091][core] A végrehajtóval kapcsolatos memóriakonfiguráció javítása helytelen, ha több erőforrásprofil működött
- [SPARK-49461] [SC-179572][ss] Állandó ellenőrzőpont-azonosító a naplók véglegesítéséhez és visszaolvasásához
- [SPARK-50343] [SC-183119][spark-50344][SQL] SQL-cső szintaxisának hozzáadása a DROP és AS operátorokhoz
-
[SPARK-50481] [SC-182880][core] A checksum fájllogika kihagyásának javítása
SortShuffleManager.unregisterShuffle, ha az ellenőrzőösszeg le van tiltva -
[SPARK-50498] [SC-183090][python] Kerülje a szükségtelen py4j-hívásokat
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Az öncsatlakozás javítása az után
applyInArrow - [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres xor lefeleszorítás javítása
Databricks ODBC/JDBC illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Karbantartási frissítések
Lásd a Databricks Runtime 16.2 karbantartási frissítéseit.
Rendszerkörnyezet
-
Operációs rendszer: Ubuntu 24.04.1 LTS
- Megjegyzés: Ez a Databricks Runtime-tárolók által használt Ubuntu-verzió. A Databricks Runtime-tárolók a felhőszolgáltató virtuális gépein futnak, amelyek más Ubuntu-verziót vagy Linux-disztribúciót használhatnak.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Telepített Python-kódtárak
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| széljegyzetes típusok | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| autocommand | 2.2.2 | azure-core | 1.31.0 | Azure-tároló-blob | 12.23.0 |
| Azure-tároló-fájl-adattó (Azure Storage File Data Lake) | 12.17.0 | backports.tarfile | 1.2.0 | fekete | 24.4.2 |
| villogó | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| Gyorstár-eszközök | 5.3.3 | tanúsítvány | 2024.6.2 | cffi | 1.16.0 |
| karakterkészlet | 4.0.0 | karakterkészlet-normalizáló (charset-normalizer) | 2.0.4 | kattintás | 8.1.7 |
| Cloudpickle | 2.2.1 | Comm | 0.2.1 | contourpy | 1.2.0 |
| kriptográfia | 42.0.5 | biciklista | 0.11.0 | Cython | 3.0.11 |
| databricks SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy hibakereső eszköz | 1.6.7 |
| dekorátor | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| docstring átalakítása markdown formátumba | 0.11 | belépési pontok | 0,4 | Végrehajtó | 0.8.3 |
| aspektusok áttekintése | 1.1.1 | fájlzár | 3.15.4 | betűtípusok | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-hitelesítés | 2.35.0 | google-cloud-core (Google felhő mag) | 2.4.1 | Google Cloud tárhely (google-cloud-storage) | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media (Google újraindítható média) | 2.7.2 | googleapis-közös-protokollok | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| Idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| ragoz | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| ISO-dátum | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy kiterjesztések | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-szemantic-conventions | 0,48b0 |
| csomagolás | 24.1 | Pandák | 1.5.3 | parso | 0.8.3 |
| útvonal specifikáció (pathspec) | 0.10.3 | bűnbak | 0.5.6 | pexpect | 4.8.0 |
| párna | 10.3.0 | mag | 24.2 | Platformdirs | 3.10.0 |
| ábrázolás | 5.22.0 | csatlakozós | 1.0.0 | prompt-toolkit: parancssori eszközkészlet | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.65 | pycparser (C és C++ fájlok feldolgozására szolgáló parser) | 2.21 | pydantic (egy Python könyvtár) | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes (egy program vagy eszköz neve) | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc (Python ODBC interfész) | 5.0.1 |
| pyparsing (egy Python könyvtár a szövegelemzéshez) | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytool konfiguráció | 1.2.6 |
| pytz (egy Python könyvtár az időzóna számításokhoz) | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| requests | 2.32.2 | kötél | 1.12.0 | Rsa | 4.9 |
| s3transfer | 0.10.2 | scikit-learn (egy Python gépi tanulási könyvtár) | 1.4.2 | scipy (tudományos és műszaki számítási Python könyvtár) | 1.13.1 |
| tengeri | 0.13.2 | setuptools | 74.0.0 | hat | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5,11 |
| veremadatok | 0.2.0 | statsmodels - statisztikai szoftvercsomag | 0.14.2 | Kitartás | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornádó | 6.4.1 | árulók | 5.14.3 | típusőrző | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| 6-os típusok | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions (gépelési kiterjesztések) | 4.11.0 |
| ujson (JSON-kezelő könyvtár a Pythonban) | 5.10.0 | felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| Mi a javítás? | 1.0.2 | wheel | 0.43.0 | becsomagolva | 1.14.1 |
| yapf | 0.33.0 | cipzár | 3.17.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2024.08.04-én: https://packagemanager.posit.co/cran/2024-08-04/.
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| nyíl | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.5.0 | alapkép | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | rendszerindítás | 1.3-30 |
| főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.6 |
| bslib | 0.8.0 | gyorsítótár | 1.1.0 | hívó | 3.7.6 |
| kalap | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| osztály | 7.3-22 | Cli | 3.6.3 | clipr | 0.8.0 |
| óra | 0.7.1 | fürt | 2.1.6 | kódtoolok | 0.2-20 |
| színtér | 2.1-1 | commonmark | 1.9.1 | fordítóprogram | 4.4.0 |
| config | 0.3.2 | Ütközött | 1.2.0 | cpp11 | 0.4.7 |
| zsírkréta | 1.5.3 | azonosító adatok | 2.0.1 | csavarodik | 5.2.1 |
| data.table | 1.15.4 | adatkészletek | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Desc | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | kivonat | 0.6.36 |
| levilágított | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | három pont | 0.3.2 | értékel | 0.24.0 |
| fani | 1.0.6 | farver | 2.1.2 | gyorstérkép | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| külföldi | 0.8-86 | kovácsol | 0.2.0 | fs | 1.6.4 |
| jövő | 1.34.0 | future.apply | 1.11.2 | gargarizál | 1.5.2 |
| általánosítás | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globális | 0.16.3 | ragasztó | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafika | 4.4.0 | grDevices | 4.4.0 | rács | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | kikötő | 2.5.4 |
| highr | 0.11 | Hms | 1.1.3 | htmltoolok | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Azonosítók | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | címkézés | 0.4.3 |
| később | 1.3.2 | rács | 0.22-5 | láva | 1.8.0 |
| életciklus | 1.0.4 | figyelő | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.13 | TÖMEG | 7.3-60.0.1 |
| Mátrix | 1.6-5 | memoise | 2.0.1 | Módszerek | 4.4.0 |
| mgcv | 1.9-1 | MIME | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | párhuzamos | 4.4.0 |
| párhuzamosan | 1.38.0 | pillér | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | rétegelt | 1.8.9 | dicséret | 1.0.0 |
| prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | haladás | 1.2.3 |
| progressr | 0.14.0 | Ígér | 1.3.0 | Proto | 1.0.0 |
| közvetít | 0.4-27 | Ps | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reaktív | 0.4.4 |
| reactR | 0.6.0 | olvasó | 2.1.5 | readxl | 1.4.3 |
| Receptek | 1.1.0 | Visszavágót | 2.0.0 | visszavágó2 | 2.1.2 |
| Távirányító | 2.5.0 | reprex | 2.1.1 | újraformázás2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| mérleg | 1.3.0 | választó | 0.4-2 | sessioninfo | 1.2.2 |
| alakzat | 1.4.6.1 | Fényes | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | térbeli | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | NÉGYZET | 2021.1 |
| statisztika | 4.4.0 | statisztikák4 | 4.4.0 | stringi | 1.8.4 |
| sztring | 1.5.1 | túlélés | 3.6-4 | henceg | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | szövegformázás | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| timechange | 0.3.0 | timeDate | 4032.109 | tinytex | 0.52 |
| Eszközök | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| uuid | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | Waldo | 0.5.2 |
| bajusz | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | fütyülés | 2.3.1 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
| Csoportazonosító | Artefaktum azonosítója | verzió |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | adatfolyam | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | osztálytárs | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natívok |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-natívok |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natívok |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natívok |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Csellengő | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | gujávafa | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profilkészítő | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-naplózás | commons-naplózás | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrikamag | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-zokni | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | gyűjtő | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktiválás | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pác | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | hangya | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | nyílformátum | 15.0.0 |
| org.apache.arrow | nyíl-memóriamag | 15.0.0 |
| org.apache.arrow | nyíl-memória-netty | 15.0.0 |
| org.apache.arrow | nyíl-vektor | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | kurátor-ügyfél | 2.13.0 |
| org.apache.curator | kurátor-keretrendszer | 2.13.0 |
| org.apache.curator | kurátor-receptek | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | keménykalap | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | borostyán | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0,9,3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | célközönség-széljegyzetek | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.2 |
| org.apache.zookeeper | zookeeper-juta | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | móló-folytatás | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | móló plusz | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Végleges |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Széljegyzetek | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Alátéteket | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | teszt-interfész | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest-kompatibilis | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | három-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |