Databricks Runtime 15.3
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.0 által működtetett Databricks Runtime 15.3-ról nyújtanak információkat.
A Databricks 2024 júniusában adta ki ezt a verziót.
Tipp.
A támogatás megszűnését (EoS) elérő Databricks Runtime-verziók kibocsátási megjegyzéseit a databricks runtime kiadási megjegyzéseiben találhatja meg. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.
Új funkciók és fejlesztések
A PySpark DataSources mostantól támogatja a stream olvasását és írását
A PySpark DataSources, amely lehetővé teszi az egyéni adatforrásokból való olvasást és az egyéni adatgyűjtőkbe való írást, mostantól támogatja a streamek olvasását és írását. Lásd: PySpark egyéni adatforrások.
Oszlopleképezés letiltása az elvetési funkcióval
Mostantól DROP FEATURE
letilthatja az oszlopleképezést a Delta-táblákon, és leminősítheti a táblaprotokollt. Lásd: Oszlopleképezés letiltása.
Változattípus szintaxisa és függvényei a Nyilvános előzetes verzióban
Natív Apache Spark-támogatás a félig strukturált adatok típusként VARIANT
való használatához mostantól elérhető a Spark DataFramesben és az SQL-ben. Lásd a Lekérdezésvariáns adatokat.
A Delta Lake változattípus-támogatása nyilvános előzetes verzióban
Most már VARIANT
használhatja a részben strukturált adatok tárolására a Delta Lake által támogatott táblákban. Lásd a Variant támogatását a Delta Lake-ben.
Különböző sémafejlődési módok támogatása nézetekben
A CREATE VIEW és az ALTER VIEW mostantól lehetővé teszi a sémakötési mód beállítását, ami növeli, hogy a nézetek hogyan kezelik az alapul szolgáló objektumok sémamódosításait. Ez a funkció lehetővé teszi, hogy a nézetek tolerálják vagy alkalmazkodjanak a mögöttes objektumok sémaváltozásaihoz. A lekérdezési sémában az objektumdefiníciók módosításából eredő változásokat kezeli.
observe()
A Spark Connect Scala-ügyfélhez hozzáadott metódusok támogatása
A Spark Connect Scala-ügyfél mostantól támogatja a Dataset.observe()
metódusokat. Ezeknek a metódusoknak a támogatása lehetővé teszi az objektumokon Dataset
megfigyelni kívánt metrikák meghatározását a metódusok vagy ds.observe(observationObject, metrics...)
metódusok ds.observe("name", metrics...)
használatával.
Továbbfejlesztett stream-újraindítás késése az automatikus betöltőhöz
Ez a kiadás tartalmaz egy módosítást, amely javítja az automatikus betöltő stream-újraindítási késését. Ez a fejlesztés úgy valósul meg, hogy a RocksDB állapottároló aszinkron módon tölti be az állapotot. Ezzel a módosítással javulni fog a nagy állapotú streamek kezdési ideje, például a nagy számú már betöltött fájllal rendelkező streamek esetében.
DataFrame visszaadása pyarrow.Table
A DataFrame közvetlenül Apache Arrow-objektumba pyarrow.Table
való írásának támogatásához ez a kiadás tartalmazza a függvényt DataFrame.toArrow()
. A Arrow PySparkban való használatáról további információt az Apache Arrow a PySparkban című témakörben talál.
Néhány ablakfüggvény teljesítménybeli javulása
Ez a kiadás tartalmaz egy módosítást, amely javítja egyes Spark-ablakfüggvények teljesítményét, különösen olyan függvényeket, amelyek nem tartalmaznak záradékot ORDER BY
vagy paramétert window_frame
. Ezekben az esetekben a rendszer újraírhatja a lekérdezést, hogy egy összesítő függvény használatával futtassa. Ez a módosítás lehetővé teszi a lekérdezés gyorsabb futtatását részleges összesítés használatával, és elkerülve az ablakfüggvények futtatásának többletterhelését. A Spark konfigurációs paramétere spark.databricks.optimizer.replaceWindowsWithAggregates.enabled
vezérli ezt az optimalizálást, és alapértelmezés szerint be van állítva true
. Az optimalizálás kikapcsolásához állítsa be a következőt spark.databricks.optimizer.replaceWindowsWithAggregates.enabled
false
: .
try_mod
A hozzáadott függvény támogatása
Ez a kiadás támogatja a PySpark try_mod()
függvényt. Ez a függvény támogatja az egész szám fennmaradó részének ANSI SQL-kompatibilis kiszámítását két numerikus érték osztásától. Ha az osztó argumentum 0, a függvény null try_mod()
értéket ad vissza a kivétel helyett. Használhatja a try_mod()
függvényt ahelyett mod
vagy %
, amely kivételt eredményez, ha az osztó argumentum 0, és az ANSI SQL engedélyezve van.
Választható hatókörparaméter támogatása a list_secrets()
Ez a kiadás lehetővé teszi, hogy a list_secrets() táblafüggvény eredményeit egy adott hatókörre korlátozza.
Hibajavítások
WriteIntoDeltaCommand
A Spark felhasználói felületén lévő metrikák most már helyesen jelennek meg
Ez a kiadás tartalmazza a csomópont Spark felhasználói Execute WriteIntoDeltaCommand
felületének SQL lapján megjelenő metrikák javítását. Korábban a csomóponthoz megjelenített metrikák mind nullák voltak.
A groupby()
Pandas API függvénye figyelmen kívül hagyta az argumentumot as_index=False
Ez a kiadás tartalmaz egy javítást a groupby()
függvénysel kapcsolatos probléma megoldásához a Sparkon található Pandas API-ban. A javítás előtt az groupby()
összesítő oszlopok és az as_index=False
argumentum újracímkézője nem tartalmazott csoportkulcsokat az eredményül kapott DataFrame-ben.
Hiba elemzése több ablakfüggvénysel, amelyek a többi függvény kimenetére hivatkoznak
Ez a kiadás kijavít egy hibát, amely akkor fordulhat elő, ha egy Spark-lekérdezés több egymást követő ablakfüggvényt tartalmaz, ahol az ablakfüggvények a többi ablakfüggvény kimenetére hivatkoznak. Ritkán előfordulhat, hogy a rendszer elveti az egyik hivatkozást, ami a lekérdezés kiértékelésével kapcsolatos hibákhoz vezet. Ez kijavítja ezeket a hivatkozásokat a lekérdezések kiértékelése érdekében. Ezt a módosítást a Spark konfigurációs paramétere spark.databricks.optimizer.collapseWindows.projectReferences
szabályozza, amely alapértelmezés szerint be van állítva true
. A módosítás kikapcsolásához állítsa a következőre spark.databricks.optimizer.collapseWindows.projectReferences
false
: .
Könyvtárfrissítések
- Frissített Python-kódtárak:
- filelock 3.13.1-től 3.13.4-hez
- Frissített R-kódtárak:
- Frissített Java-kódtárak:
- org.rocksdb.rocksdbjni 8.3.2 és 8.11.4 között
Apache Spark
A Databricks Runtime 15.3 tartalmazza az Apache Spark 3.5.0-t. Ez a kiadás tartalmazza a Databricks Runtime 15.2-ben található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-48211] [DBRRM-1041][15.x][15.3] Visszaállítás "[SC-165552][SQL] DB2: Read SMALLINT as Sho...
- [SPARK-47904] [DBRRM-1040][VISELKEDÉS-33][SC-163409] SPARK-47904 visszaállítása: Kis- és nagybetűk megőrzése az Avro-sémában az enableStableIdentifiersForUnionType használatakor
- [SPARK-48288] [SC-166141] Forrásadattípus hozzáadása az összekötők leadott kifejezéséhez
- [SPARK-48175] [SC-166341][SQL][PYTHON] Rendezési információk tárolása metaadatokban, és nem a SER/DE típusában
- [SPARK-48172] [SC-166078][SQL] A JDBCDialectsben való meneküléssel kapcsolatos problémák megoldása
- [SPARK-48186] [SC-165544][SQL] Az AbstractMapType támogatásának hozzáadása
- [SPARK-48031] [SC-166523] A nagypapa örökölt nézetei a SÉMAKÖTÉShez
- [SPARK-48369] [SC-166566][SQL][PYTHON][CONNECT] Függvény hozzáadása
timestamp_add
- [SPARK-48330] [SC-166458][SS][PYTHON] A Python streamelési adatforrás időtúllépési problémájának megoldása nagy eseményindító-időköz esetén
- [SPARK-48369] "[SC-166494][SQL][PYTHON][CONNECT] Függvény hozzáadása
timestamp_add
" - [SPARK-48336] [SC-166495][PS][CONNECT] Implementálás
ps.sql
a Spark Connectben - [SPARK-48369] [SC-166494][SQL][PYTHON][CONNECT] Függvény hozzáadása
timestamp_add
- [SPARK-47354] [SC-165546][SQL] Rendezési támogatás hozzáadása a variánskifejezésekhez
- [SPARK-48161] [SC-165325][SQL] Visszavert pr javítása – Rendezési támogatás hozzáadása JSON-kifejezésekhez
- [SPARK-48031] [SC-166391] ViewSchemaMode konfiguráció felbontása, SHOW CREATE TABLE támogatás hozzáadása
- [SPARK-48268] [SC-166217][CORE] Konfiguráció hozzáadása a SparkContext.setCheckpointDirhez
- [SPARK-48312] [ES-1076198][SQL] Az Alias.removeNonInheritableMetadata teljesítményének javítása
- [SPARK-48294] [SC-166205][SQL] Kisbetű kezelése a nestedTypeMissingElementTypeError alkalmazásban
- [SPARK-47254] [SC-158847][SQL] Nevek hozzárendelése a _LEGACY_ERROR_TEMP_325[1-9] hibaosztályokhoz
- [SPARK-47255] [SC-158749][SQL] Nevek hozzárendelése _LEGACY_ERROR_TEMP_323[6-7] és _LEGACY_ERROR_TEMP_324[7-9] hibaosztályokhoz
- [SPARK-48310] [SC-166239][PYTHON][CONNECT] A gyorsítótárazott tulajdonságoknak másolatokat kell visszaadni
- [SPARK-48308] [SC-166152][Core] Adatséma egyesítése partícióoszlopok nélkül a FileSourceStrategyben
- [SPARK-48301] [SC-166143][SQL] Átnevezés
CREATE_FUNC_WITH_IF_NOT_EXISTS_AND_REPLACE
:CREATE_ROUTINE_WITH_IF_NOT_EXISTS_AND_REPLACE
- [SPARK-48287] [SC-166139][PS][CONNECT] A beépített
timestamp_diff
metódus alkalmazása - [SPARK-47607] [SC-166129] Strukturált naplózási keretrendszer dokumentációjának hozzáadása
- [SPARK-48297] [SC-166136][SQL] Regressziós TRANSFORM záradék javítása karakter/varchar használatával
- [SPARK-47045] [SC-156808][SQL] Csere a következővel
IllegalArgumentException
:SparkIllegalArgumentException
sql/api
- [SPARK-46991] [SC-156399][SQL] Csere a következővel
IllegalArgumentException
:SparkIllegalArgumentException
catalyst
- [SPARK-48031] [SC-165805][SQL] Támogatási nézet sémafejlődése
- [SPARK-48276] [SC-166116][PYTHON][CONNECT] Adja hozzá a hiányzó metódust a következőhöz
__repr__
:SQLExpression
- [SPARK-48278] [SC-166071][PYTHON][CONNECT] A sztring-ábrázolás pontosítása
Cast
- [SPARK-48272] [SC-166069][SQL][PYTHON][CONNECT] Függvény hozzáadása
timestamp_diff
- [SPARK-47798] [SC-162492][SQL] A decimális értékek olvasási hibáinak hibaüzenetének bővítése
- [SPARK-47158] [SC-158078][SQL] A megfelelő név hozzárendelése és
sqlState
a_LEGACY_ERROR_TEMP_(2134|2231)
- [SPARK-48218] [SC-166082][CORE] A TransportClientFactory.createClient NPE okozhatja a FetchFailedExceptiont
- [SPARK-48277] [SC-166066] ErrorClassesJsonReader.getErrorMessage hibaüzenetének javítása
- [SPARK-47545] [SC-165444][CONNECT] A Scala-ügyfél adatkészlet-támogatása
observe
- [SPARK-48954] [SC-171672][SQL] Függvény hozzáadása
try_mod
- [SPARK-43258] [SC-158151][SQL] Nevek hozzárendelése hiba _LEGACY_ERROR_TEMP_202[3,5]
- [SPARK-48267] [SC-165903][SS] Regressziós e2e-teszt SPARK-47305 használatával
- [SPARK-48263] [SC-165925] Nem UTF8_BINARY sztringek függvénytámogatásának rendezése
- [SPARK-48260] [SC-165883][SQL] Kimeneti véglegesítés koordinálásának letiltása a ParquetIOSuite egyik tesztjében
- [SPARK-47834] [SC-165645][SQL][CONNECT] Elavult függvények megjelölése a következővel
@deprecated
:SQLImplicits
- [SPARK-48011] [SC-164061][Core] A LogKey-név tárolása értékként az új sztringpéldányok létrehozásának elkerülése érdekében
- [SPARK-48074] [SC-164647][Core] A JSON-naplózások olvashatóságának javítása
- [SPARK-44953] [SC-165866][CORE] Figyelmeztetés naplózása, ha az shuffle tracking engedélyezve van egy másik da által támogatott mechanizmus mellett
- [SPARK-48266] [SC-165897][CONNECT] Csomagobjektum
org.apache.spark.sql.connect.dsl
áthelyezése a tesztkönyvtárba - [SPARK-47847] [SC-165651][CORE] Elítél
spark.network.remoteReadNioBufferConversion
- [SPARK-48171] [SC-165178][CORE] Elavult konstruktorok használatának megtisztítása
o.rocksdb.Logger
- [SPARK-48235] [SC-165669][SQL] Csatlakozás közvetlen átadása az összes argumentum helyett a GetBroadcastBuildSide és a getShuffleHashJoinBuildSide lekéréséhez
- [SPARK-48224] [SC-165648][SQL] A térképkulcsok nem tiltják le a változattípust
- [SPARK-48248] [SC-165791][PYTHON] Beágyazott tömb kijavítása az inferArrayTypeFromFirstElement örökölt konföderációjának tiszteletben tartásához
- [SPARK-47409] [SC-165568][SQL] Függvények/kifejezések StringTrim típusú rendezési támogatásának hozzáadása (UTF8_BINARY > LCASE esetén)
- [SPARK-48143] [ES-1095638][SQL] Egyszerűsített kivételek használata az UnivocityParser és a FailureSafeParser közötti vezérlési folyamathoz
- [SPARK-48146] [SC-165668][SQL] Az aggregátumfüggvény javítása a Kifejezés gyermekalkalmazásban
- [SPARK-48161] "[SC-165325][SQL] Rendezési támogatás hozzáadása JSON-kifejezésekhez"
- [SPARK-47963] [CORE] A külső Spark-ökoszisztéma strukturált naplózási mechanizmusokat használhat
- [SPARK-48180] [SC-165632][SQL] Javítsa a hibát, ha az UDTF-hívás a TABLE arg használatával elfelejti a zárójeleket több PARTITION/ORDER BY exprs körül
- [SPARK-48002] [SC-164132][PYTHON][SS] Megfigyelt metrikák tesztelésének hozzáadása a PySpark StreamingQueryListenerben
- [SPARK-47421] [SC-165548][SQL] Rendezési támogatás hozzáadása URL-kifejezésekhez
- [SPARK-48161] [SC-165325][SQL] Rendezési támogatás hozzáadása JSON-kifejezésekhez
- [SPARK-47359] [SC-164328][SQL] A TRANSLATE függvény támogatása csoportosított sztringek használatához
- [SPARK-47365] [SC-165643][PYTHON] ToArrow() DataFrame metódus hozzáadása a PySparkhoz
- [SPARK-48228] [SC-165649][PYTHON][CONNECT] A hiányzó függvényérvényesítés implementálása az ApplyInXXX-ben
- [SPARK-47986] [SC-165549][CONNECT][PYTHON] Nem hozható létre új munkamenet, ha a kiszolgáló bezárja az alapértelmezett munkamenetet
- [SPARK-47963] "[CORE] A külső Spark-ökoszisztéma strukturált naplózási mechanizmusokat használhat"
- [SPARK-47963] [CORE] A külső Spark-ökoszisztéma strukturált naplózási mechanizmusokat használhat
- [SPARK-48208] [SC-165547][SS] Ha engedélyezve van a korlátozott memóriahasználat, hagyja ki a RocksDB memóriahasználati metrikáinak megadását
- [SPARK-47566] [SC-164314][SQL] SubstringIndex függvény támogatása csoportosított sztringek használatához
- [SPARK-47589] [SC-162127][SQL]Hive-Thriftserver: LogError migrálása változókkal a strukturált naplózási keretrendszerbe
- [SPARK-48205] [SC-165501][PYTHON] A Python-adatforrások privát[sql] módosítójának eltávolítása
- [SPARK-48173] [SC-165181][SQL] A CheckAnalysisnek látnia kell a teljes lekérdezési tervet
- [SPARK-48197] [SC-165520][SQL] Az érvénytelen lambda függvény helyességi hibájának elkerülése
- [SPARK-47318] [SC-162573][CORE] HKDF kerekítése az AuthEngine kulcs származtatásához a szokásos KEX-eljárások követéséhez
- [SPARK-48184] [SC-165335][PYTHON][CONNECT] Mindig állítsa be a magot
Dataframe.sample
az ügyféloldalon - [SPARK-48128] [SC-165004][SQL] BitwiseCount/bit_count kifejezés esetén javítsa ki a logikai típusú bemenetek kodekgenszintaxis-hibáját
- [SPARK-48147] [SC-165144][SS][CONNECT] Ügyféloldali figyelők eltávolítása a helyi Spark-munkamenet törlésekor
- [SPARK-48045] [SC-165299][PYTHON] A pandas API groupby több agg-relabel használatával figyelmen kívül hagyja as_index=False
- [SPARK-48191] [SC-165323][SQL] Az UTF-32 támogatása sztringkódoláshoz és -dekódoláshoz
- [SPARK-45352] [SC-137627][SQL] Összecsukható ablakpartíciók eltávolítása
- [SPARK-47297] [SC-165179][SQL] Rendezési támogatás hozzáadása formázási kifejezésekhez
- [SPARK-47267] [SC-165170][SQL] Rendezési támogatás hozzáadása kivonatkifejezésekhez
- [SPARK-47965] [SC-163822][CORE] Az orNull elkerülése a TypedConfigBuilder és az OptionalConfigEntry alkalmazásban
- [SPARK-48166] [SQL] Kerülje a BadRecordException felhasználó által észlelt hibaként való használatát a VariantExpressionEvalUtilsban
- [SPARK-48105] [SC-165132][SS] Az állapottároló kiürítése és a pillanatképek készítése közötti versenyállapot javítása
- [SPARK-47922] [SC-163997][SQL] A try_parse_json kifejezés implementálása
- [SPARK-47719] [SC-161909][SQL] Spark.sql.legacy.timeParse módosítása...
- [SPARK-48035] [SC-165136][SQL] Kijavítottuk, try_add/try_multiply szemantikai értéke egyenlő a hozzáadással/szorzással
- [SPARK-48107] [SC-164878][PYTHON] Tesztek kizárása a Python-disztribúcióból
- [SPARK-46894] [SC-164447][PYTHON] PySpark-hibafeltételek áthelyezése önálló JSON-fájlba
- [SPARK-47583] [SC-163825][CORE] SQL Core: LogError migrálása változókkal a strukturált naplózási keretrendszerbe
- [SPARK-48064] "[SC-164697][SQL] A rutinhoz kapcsolódó hibaosztályok hibaüzeneteinek frissítése"
- [SPARK-48048] [SC-164846][CONNECT][SS] Ügyféloldali figyelő támogatása hozzáadva a Scalához
- [SPARK-48064] [SC-164697][SQL] A rutinnal kapcsolatos hibaosztályok hibaüzeneteinek frissítése
- [SPARK-48056] [SC-164715][CONNECT][PYTHON] Terv újrafuttatása SESSION_NOT_FOUND hiba esetén, és nem érkezett részleges válasz
- [SPARK-48124] [SC-165009][CORE] A Connect-Repl strukturált naplózásának letiltása alapértelmezés szerint
- [SPARK-47922] "[SC-163997][SQL] A try_parse_json kifejezés implementálása"
- [SPARK-48065] [SC-164817][SQL] SPJ: allowJoinKeysSubsetOfPartitionKeys túl szigorú
- [SPARK-48114] [SC-164956][CORE] Precompile template regex a szükségtelen munka elkerülése érdekében
- [SPARK-48067] [SC-164773][SQL] A változat alapértelmezett oszlopainak javítása
- [SPARK-47922] [SC-163997][SQL] A try_parse_json kifejezés implementálása
- [SPARK-48075] [SC-164709] [SS] PySpark avro-függvények típusellenőrzésének hozzáadása
- [SPARK-47793] [SC-164324][SS][PYTHON] A SimpleDataSourceStreamReader implementálása pythonos streamelési adatforráshoz
- [SPARK-48081] [SC-164719] A ClassCastException javítása az NTile.checkInputDataTypes() fájlban, ha az argumentum nem összecsukható vagy helytelen típusú
- [SPARK-48102] [SC-164853][SS] Forrás-/fogadómetrikák beszerzésének időtartamának nyomon követése a streamelési lekérdezés előrehaladásának jelentése közben
- [SPARK-47671] [SC-164854][Core] Strukturált naplózás engedélyezése a log4j2.properties.template-ben és a frissítési dokumentumokban
- [SPARK-47904] [SC-163409][SQL] Kis- és nagybetűk megőrzése az Avro-sémában az enableStableIdentifiersForUnionType használatakor
- [SPARK-48058] [SC-164695][SPARK-43727][PYTHON][CONNECT]
UserDefinedFunction.returnType
A DDL-sztring elemzése - [SPARK-46922] [SC-156102][CORE][SQL] Ne törje körbe a futtatókörnyezet felhasználói hibáit
- [SPARK-48047] [SC-164576][SQL] Az üres TreeNode-címkék memóriaterhelésének csökkentése
- [SPARK-47934] [SC-164648] [CORE] Az URL-átirányítások záró perjeleinek
HistoryServer
ellenőrzése - [SPARK-47921] [SC-163826][CONNECT] Az ExecuteJobTag létrehozásának javítása az ExecuteHolderben
- [SPARK-48014] [SC-164150][SQL] A MakeFromJava hiba módosítása a EvaluatePythonban felhasználói hibára
- [SPARK-47903] [SC-163424][PYTHON] További skaláris típusok támogatása a PySpark Variant könyvtárban
- [SPARK-48068] [SC-164579][PYTHON]
mypy
paraméternek kell lennie--python-executable
- [SPARK-47846] [SC-163074][SQL] A Variant típus támogatásának hozzáadása from_json kifejezésben
- [SPARK-48050] [SC-164322][SS] Logikai terv naplózása a lekérdezés indításakor
- [SPARK-47810] [SC-163076][SQL] Egyenértékű kifejezés cseréje = <> illesztés feltételben
- [SPARK-47741] [SC-164290] A verem túlcsordulási kezelése hozzáadva az elemzőben
- [SPARK-48053] [SC-164309][PYTHON][CONNECT] A SparkSession.createDataFrame figyelmeztetést ad a nem támogatott beállításokra
- [SPARK-47939] [SC-164171][SQL] Implementáljon egy új Analyzer-szabályt a ParameterizedQuery áthelyezéséhez a ExplainCommand és a DescribeQueryCommand között
- [SPARK-48063] [SC-164432][CORE] Engedélyezés
spark.stage.ignoreDecommissionFetchFailure
alapértelmezés szerint - [SPARK-48016] [SC-164280][SQL] Hiba kijavítása try_divide függvényben decimális értékekkel
- [SPARK-48033] [SC-164291][SQL] Az alapértelmezett oszlopokban használt kifejezések javítása
RuntimeReplaceable
- [SPARK-48010] [SC-164051][SQL][ES-1109148] A conf.resolver ismételt hívásának elkerülése a resolveExpressionban
- [SPARK-48003] [SC-164323][SQL] Rendezési támogatás hozzáadása hll vázlatösszesítéshez
- [SPARK-47994] [SC-164175][SQL] Hiba kijavítása a CASE WHEN oszlopszűrő leküldésével az SQLServerben
- [SPARK-47984] [SC-163837][ML][SQL] Váltás
MetricsAggregate/V2Aggregator#serialize/deserialize
hívásraSparkSerDeUtils#serialize/deserialize
- [SPARK-48042] [SC-164202][SQL] Időbélyeg-formázó használata az osztály szintjén lévő időzónával ahelyett, hogy metódusszinten készítenél másolatokat
- [SPARK-47596] [SPARK-47600][SPARK-47604][SPARK-47804] Strukturált naplómigrálások
- [SPARK-47594] [SPARK-47590][SPARK-47588][SPARK-47584] Strukturált naplómigrálások
- [SPARK-47567] [SC-164172][SQL] A LOCATE függvény támogatása csoportosított sztringek használatához
- [SPARK-47764] [SC-163820][CORE][SQL] A ShuffleCleanupMode alapján történő törlési shuffle függőségek
- [SPARK-48039] [SC-164174][PYTHON][CONNECT] A hibaosztály frissítése a következőhöz:
group.apply
- [SPARK-47414] [SC-163831][SQL] Kisbetűs rendezés támogatása regexp-kifejezésekhez
- [SPARK-47418] [SC-163818][SQL] Kézzel készített implementációk hozzáadása a kisbetűs Unicode-érzékeny kódhoz, a startsWith és a endsWith és az optimize UTF8_BINARY_LCASE
- [SPARK-47580] [SC-163834][SQL] SQL-katalizátor: meg nem nevezett változók kiküszöbölése a hibanaplókban
- [SPARK-47351] [SC-164008][SQL] Rendezési támogatás hozzáadása StringToMap & Maszk sztringkifejezésekhez
- [SPARK-47292] [SC-164151][SS] safeMapToJValue null típusú értékeket kell figyelembe vennie
- [SPARK-47476] [SC-164014][SQL] A CSERE függvény támogatása az csoportosított sztringek használatához
- [SPARK-47408] [SC-164104][SQL] A StringType-ot használó mathExpressions javítása
- [SPARK-47350] [SC-164006][SQL] Rendezési támogatás hozzáadása SplitPart-sztringkifejezéshez
- [SPARK-47692] [SC-163819][SQL] Alapértelmezett StringType-jelentés javítása implicit öntésben
- [SPARK-47094] [SC-161957][SQL] SPJ: A gyűjtők dinamikus újraegyensúlyozása, ha nem egyenlők
- [SPARK-48001] [SC-164000][CORE] A nem használt
private implicit def arrayToArrayWritable
eltávolítása aSparkContext
- [SPARK-47986] [SC-163999][CONNECT][PYTHON] Nem hozható létre új munkamenet, ha a kiszolgáló bezárja az alapértelmezett munkamenetet
- [SPARK-48019] [SC-164121] Helytelen viselkedés javítása a ColumnVector/ColumnarArray alkalmazásban szótárral és null értékekkel
- [SPARK-47743] [SPARK-47592][SPARK-47589][SPARK-47581][SPARK-47586][SPARK-47593][SPARK-47595][SPARK-47587][SPARK-47603] Strukturált naplómigrálások
- [SPARK-47999] [SC-163998][SS] A pillanatképek létrehozása és bejegyzések hozzáadása/eltávolítása az állapotgyorsítótár-térképről a HDFS által támogatott állapottár-szolgáltatóban
- [SPARK-47417] [SC-162872][SQL] Rendezés támogatása: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Mondatok
- [SPARK-47712] [SC-161871][CONNECT] Adathalmazok létrehozásának és feldolgozásának engedélyezése a csatlakozó beépülő modulok számára
- [SPARK-47411] [SC-163351][SQL] A StringInstr & FindInSet függvények támogatása az csoportosított sztringek használatához
- [SPARK-47360] [SC-163014][SQL] Rendezés támogatása: Átfedés, FormatString, Hossz, BitLength, OctetLength, SoundEx, Luhncheck
- [SPARK-47413] [SC-163323][SQL] – támogatás hozzáadása az alsztringhez/bal/jobb oldalhoz a rendezésekhez
- [SPARK-47983] [SC-163835][SQL] Spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled to internal
- [SPARK-47964] [SC-163816][PYTHON][CONNECT] SQLContext és HiveContext elrejtése a pyspark-connectben
- [SPARK-47985] [SC-163841][PYTHON] Függvények egyszerűsítése
lit
- [SPARK-47633] [SC-163453][SQL] A jobb oldali terv kimenetének belefoglalása
LateralJoin#allAttributes
a konzisztensebb canonicalizáláshoz - [SPARK-47909] "[PYTHON][CONNECT] Parent DataFrame class f...
- [SPARK-47767] [SC-163096][SQL] Eltolási érték megjelenítése a TakeOrderedAndProjectExec alkalmazásban
- [SPARK-47822] [SC-162968][SQL] Kivonatkifejezések tiltása a Variant-adattípus kivonatolásától
- [SPARK-47490] [SC-160494][SS] Kijavítottuk a RocksDB Logger konstruktor használatát az elavulásra figyelmeztető figyelmeztetés elkerülése érdekében
- [SPARK-47417] "[SC-162872][SQL] Rendezés támogatása: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Mondatok"
- [SPARK-47352] [SC-163460][SQL] Felső, Alsó, InitCap rendezési tudatosság javítása
- [SPARK-47909] [PYTHON][CONNECT] Szülő DataFrame-osztály a Spark Connecthez és a Klasszikus Sparkhoz
- [SPARK-47417] [SC-162872][SQL] Rendezés támogatása: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Mondatok
Databricks ODBC/JDBC illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Lásd a Databricks Runtime 15.3 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
fekete | 23.3.0 | villogó | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | minősítés | 2023.7.22 |
cffi | 1.15.1 | karakterkészlet | 4.0.0 | charset-normalizer | 2.0.4 |
kattintás | 8.0.4 | cloudpickle | 2.2.1 | Comm | 0.1.2 |
contourpy | 1.0.5 | kriptográfia | 41.0.3 | biciklista | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
hibakeresés | 1.6.7 | lakberendező | 5.1.1 | distlib | 0.3.8 |
belépési pontok | 0,4 | Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 |
filelock | 3.13.4 | betűtípusok | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-hitelesítés | 2.29.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | Jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | kulcstartó | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | csomagolás | 23.2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Párna | 9.4.0 | mag | 23.2.1 | platformdirs | 3.10.0 |
ábrázolás | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6,0 | pyzmq | 23.2.0 |
kérelmek | 2.31.0 | Rsa | 4.9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | tengeri | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | Hat | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5,11 |
veremadatok | 0.2.0 | statsmodels | 0.14.0 | Kitartás | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornádó | 6.3.2 |
árulók | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
kerék | 0.38.4 | zipp | 3.11.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Csomagkezelő CRAN-pillanatképből vannak telepítve.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | alap | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | indítás | 1.3-28 |
főz | 1.0-10 | Brio | 1.1.4 | seprű | 1.0.5 |
bslib | 0.6.1 | gyorsítótár | 1.0.8 | hívó | 3.7.3 |
kalap | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
osztály | 7.3-22 | Cli | 3.6.2 | clipr | 0.8.0 |
óra | 0.7.0 | fürt | 2.1.4 | kódtoolok | 0.2-19 |
színtér | 2.1-0 | commonmark | 1.9.1 | fordítóprogram | 4.3.2 |
config | 0.3.2 | Ütközött | 1.2.0 | cpp11 | 0.4.7 |
zsírkréta | 1.5.2 | hitelesítő adatok | 2.0.1 | csavarodik | 5.2.0 |
data.table | 1.15.0 | adatkészletek | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | Desc | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | emészt | 0.6.34 |
levilágított | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | három pont | 0.3.2 | evaluate | 0.23 |
fani | 1.0.6 | farver | 2.1.1 | gyorstérkép | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
külföldi | 0.8-85 | kovácsol | 0.2.0 | Fs | 1.6.3 |
jövő | 1.33.1 | future.apply | 1.11.1 | gargarizál | 1.5.2 |
Generikus | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
Gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globális | 0.16.2 | ragasztó | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.3.2 | grDevices | 4.3.2 | rács | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0,7 | Gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | kikötő | 2.5.4 |
highr | 0.10 | Hms | 1.1.3 | htmltoolok | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | Azonosítók | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | izoband | 0.2.7 | iterátorok | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1.45 | címkézés | 0.4.3 |
később | 1.3.2 | rács | 0.21-8 | láva | 1.7.3 |
életciklus | 1.0.4 | figyelő | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | TÖMEG | 7.3-60 |
Mátrix | 1.5-4.1 | memoise | 2.0.1 | metódusok | 4.3.2 |
mgcv | 1.8-42 | MIME | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
párhuzamosan | 1.36.0 | pillér | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | rétegelt | 1.8.9 | dicséret | 1.0.0 |
prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | haladás | 1.2.3 |
progressr | 0.14.0 | Ígér | 1.2.1 | Proto | 1.0.0 |
helyettes | 0.4-27 | Ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reaktív | 0.4.4 |
reactR | 0.5.0 | olvasó | 2.1.5 | readxl | 1.4.3 |
receptek | 1.0.9 | Visszavágót | 2.0.0 | visszavágó2 | 2.1.2 |
Távirányító | 2.4.2.1 | reprex | 2.1.0 | újraformázás2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.8 |
mérleg | 1.3.0 | választó | 0.4-2 | sessioninfo | 1.2.2 |
alak | 1.4.6 | Fényes | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | térbeli | 7.3-15 | splines | 4.3.2 |
sqldf | 0.4-11 | NÉGYZET | 2021.1 | statisztika | 4.3.2 |
statisztikák4 | 4.3.2 | stringi | 1.8.3 | sztring | 1.5.1 |
túlélés | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
szövegformázás | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0,49 | eszközök | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | eszközök | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | Waldo | 0.5.2 | bajusz | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | fütyülés | 2.3.1 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natívok |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natívok |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natívok |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natívok |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Csellengő | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | Profiler | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrikamag | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-zokni | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pác | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | nyílformátum | 15.0.0 |
org.apache.arrow | nyíl-memóriamag | 15.0.0 |
org.apache.arrow | nyíl-memória-netty | 15.0.0 |
org.apache.arrow | nyíl-vektor | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | borostyán | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | célközönség-széljegyzetek | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | móló-folytatás | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | móló plusz | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Alátéteket | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-kompatibilis | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | három-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2,0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |