Databricks Runtime 14.1
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.0 által működtetett Databricks Runtime 14.1-ről nyújtanak információkat.
A Databricks 2023 októberében adta ki ezt a verziót.
Tipp.
A támogatás megszűnését (EoS) elérő Databricks Runtime-verziók kibocsátási megjegyzéseit a databricks runtime kiadási megjegyzéseiben találhatja meg. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.
Új funkciók és fejlesztések
- array_insert() negatív indexek esetén 1-alapú
- A delta v2 ellenőrzőpontok alapértelmezés szerint engedélyezettek folyékony fürtszolgáltatással
- Delta-tábla elvetése funkció nyilvános előzetes verzióban
- Változásmegosztás: A címzettek kötegelt lekérdezéseket hajthatnak végre törlési vektorokkal rendelkező megosztott táblákon (nyilvános előzetes verzió)
- Változásmegosztás: A címzettek kötegelt lekérdezéseket hajthatnak végre oszlopleképezéssel rendelkező megosztott táblákon (nyilvános előzetes verzió)
- Stream a Unity Catalog nézeteiből nyilvános előzetes verzióban
- Apache Pulsar-összekötő nyilvános előzetes verzióban
- Frissített Snowflake illesztő
- SQL-munkamenet változói
- Az SQL és a Python UDF elnevezett paraméterhívása.
- A függvények táblaargumentumai támogatják a particionálást és a rendezést.
- Új és továbbfejlesztett beépített SQL-függvények
- A korrelált al lekérdezések jobb kezelése
array_insert() negatív indexek esetén 1-alapú
A array_insert
függvény 1-alapú mind a pozitív, mind a negatív indexekhez. Most új elemet szúr be a -1 index bemeneti tömbjeinek végére. Az előző viselkedés visszaállításához állítsa be a következőt spark.sql.legacy.negativeIndexInArrayInsert
true
: .
A delta v2 ellenőrzőpontok alapértelmezés szerint engedélyezettek folyékony fürtszolgáltatással
Az újonnan létrehozott, folyékony fürtözést használó Delta-táblák alapértelmezés szerint v2-ellenőrzőpontokat használnak. Lásd a folyékony fürtözésű táblák kompatibilitását.
Delta-tábla elvetése funkció nyilvános előzetes verzióban
Most már elvethet néhány táblafunkciót a Delta-táblákhoz. A jelenlegi támogatás magában foglalja a lemorzsolódást deletionVectors
és a v2Checkpoint
. Lásd a Delta-tábla funkcióinak elvetése című témakört.
Változásmegosztás: A címzettek kötegelt lekérdezéseket hajthatnak végre törlési vektorokkal rendelkező megosztott táblákon (nyilvános előzetes verzió)
A deltamegosztás címzettjei mostantól kötegelt lekérdezéseket hajthatnak végre törlési vektorokat használó megosztott táblákon. Lásd: Táblák hozzáadása törlési vektorokkal vagy oszlopleképezéssel egy megosztáshoz, a táblák olvasása engedélyezett törlési vektorokkal vagy oszlopleképezéssel, valamint az olvasási táblák törlési vektorokkal vagy oszlopleképezéssel.
Változásmegosztás: A címzettek kötegelt lekérdezéseket hajthatnak végre oszlopleképezéssel rendelkező megosztott táblákon (nyilvános előzetes verzió)
A deltamegosztás címzettjei mostantól kötegelt lekérdezéseket hajthatnak végre az oszlopleképezést használó megosztott táblákon. Lásd: Táblák hozzáadása törlési vektorokkal vagy oszlopleképezéssel egy megosztáshoz, a táblák olvasása engedélyezett törlési vektorokkal vagy oszlopleképezéssel, valamint az olvasási táblák törlési vektorokkal vagy oszlopleképezéssel.
Stream a Unity Catalog nézeteiből nyilvános előzetes verzióban
Mostantól a Strukturált streamelés használatával streamelési olvasásokat hajthat végre a Unity Catalogban regisztrált nézetekből. Az Azure Databricks csak a Delta-táblákon meghatározott nézetekből származó streamelési olvasásokat támogatja. Lásd: Unity Catalog-nézet olvasása streamként.
Apache Pulsar-összekötő nyilvános előzetes verzióban
Mostantól a strukturált streamelés használatával streamelheti az adatokat az Apache Pulsarból az Azure Databricksen. Lásd: Stream from Apache Pulsar.
Frissített Snowflake illesztő
A Snowflake JDBC-illesztő mostantól a 3.13.33-at használja.
SQL-munkamenet változói
Ez a kiadás lehetővé teszi az ideiglenes változók deklarálását egy munkamenetben, amely beállítható, majd a lekérdezéseken belülről hivatkozható. Lásd: Változók.
Az SQL és a Python UDF elnevezett paraméterhívása.
Mostantól használhatja az Elnevezett paraméter meghívását az SQL-en és a Python UDF-en.
A függvények táblaargumentumai támogatják a particionálást és a rendezést.
Mostantól PARTITION BY
használhatja és ORDER BY
záradékokkal szabályozhatja, hogy a táblaargumentumok hogyan legyenek átadva egy függvénynek a függvény meghívása során.
Új és továbbfejlesztett beépített SQL-függvények
A következő beépített függvények lettek hozzáadva:
- from_xml: EGY XML elemzése
STRING
egySTRUCT
. - schema_of_xml: Séma származtatása XML-fájlból
STRING
. - session_user: A bejelentkezett felhasználót adja vissza.
- try_reflect: Kivétel helyett visszaadja
NULL
, ha egy Java-metódus sikertelen.
A következő beépített függvények lettek továbbfejlesztve:
- mód: Egy determinisztikus eredményt kényszerítő opcionális paraméter támogatása.
- to_char: Új támogatás a
DATE
,TIMESTAMP
ésBINARY
. - to_varchar: Új támogatás a
DATE
,TIMESTAMP
ésBINARY
.
A korrelált al lekérdezések jobb kezelése
Kiterjesztették a korreláció feldolgozásának képességét az albekérdezésekben:
- Kezelje a korlátot és a sorrendet korrelált skaláris (oldalirányú) allekérdezésekben.
- Az ablakfüggvények támogatása korrelált skaláris al lekérdezésekben.
- Korrelált hivatkozások támogatása skaláris és oldalirányú al lekérdezések illesztő predikátumaiban
Viselkedésváltozás
Szigorú típusellenőrzés a Photon Parquet-olvasóban
A foton sikertelen, ha nem tizedes típusú Parquet-oszlopból próbál tizedesértéket beolvasni. A Foton akkor is meghiúsul, ha rögzített hosszúságú bájttömböt olvas be a Parquetből sztringként.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- filelock 3.12.2-től 3.12.3-ra
- s3transfer 0.6.1 és 0.6.2 között
- Frissített Java-kódtárak:
- com.uber.h3 3.7.0 és 3.7.3 között
- io.airlift.aircompressor 0,24 és 0,25 között
- io.delta.delta-sharing-spark_2.12 0.7.1 és 0.7.5 között
- io.netty.netty-all 4.1.93.Final-4.1.96.Final
- io.netty.netty-puffer 4.1.93.Final-ról 4.1.96.Final-ra
- io.netty.netty-codec 4.1.93.Final-4.1.96.Final
- io.netty.netty-codec-http 4.1.93.Final-4.1.96.Final
- io.netty.netty-codec-http2 4.1.93.Final-4.1.96.Final
- io.netty.netty-codec-socks 4.1.93.Final-4.1.96.Final
- io.netty.netty-common 4.1.93.Final-4.1.96.Final
- io.netty.netty-handler 4.1.93.Final-4.1.96.Final
- io.netty.netty-handler-proxy 4.1.93.Final-4.1.96.Final
- io.netty.netty-resolver 4.1.93.Final–4.1.96.Final
- io.netty.netty-transport 4.1.93.Final-4.1.96.Final
- io.netty.netty-transport-classes-epoll 4.1.93.Final-4.1.96.Final
- io.netty.netty-transport-classes-kqueue 4.1.93.Final-4.1.96.Final
- io.netty.netty-transport-native-epoll 4.1.93.Final-linux-x86_64 4.1.96.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue 4.1.93.Final-osx-x86_64 4.1.96.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common 4.1.93.Final-4.1.96.Final
- net.snowflake.snowflake-jdbc 3.13.29-től 3.13.33-ig
- org.apache.orc.orc-core 1.9.0-shaded-protobuf 1.9.1-shaded-protobuf
- org.apache.orc.orc-mapreduce from 1.9.0-shaded-protobuf to 1.9.1-shaded-protobuf
- org.apache.orc.orc-shims 1.9.0 és 1.9.1 között
Apache Spark
A Databricks Runtime 14.1 tartalmazza az Apache Spark 3.5.0-t. Ez a kiadás tartalmazza a Databricks Runtime 14.0 (EoS) összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-45088] [DBRRM-557] "[SC-142785][PYTHON][CONNECT] A getitem működése duplikált oszlopokkal"
- [SPARK-43453] [DBRRM-557] Visszaállítás "[SC-143135][PS] A"-hez tartozó
concat
időaxis=1
figyelmen kívül hagyásanames
MultiIndex
- [SPARK-45225] [SC-143207] [SQL] XML: XSD-fájl URL-támogatása
- [SPARK-45156] [SC-142782] [SQL] Körbefuttatás
inputName
a hibaosztályban lévőNON_FOLDABLE_INPUT
backticks alapján - [SPARK-44910] [SC-143082] [SQL] A Encoders.bean nem támogatja az általános típusargumentumokkal rendelkező szuperosztályokat
- [SPARK-43453] [SC-143135] [PS] A mikor figyelmen kívül hagyása
MultiIndex
anames
következőhözaxis=1
:concat
- [SPARK-44463] [SS] [CONNECT] Hibakezelés javítása a Connect gőzölésű Python-feldolgozó esetében
- [SPARK-44960] [SC-141023] [Felhasználói felület] A felhasználói felületi lapok hibaösszegzésének megszüntetése és a hibák összegzése
- [SPARK-44788] [SC-142980] [CONNECT] [PYTHON] [SQL] From_xml és schema_of_xml hozzáadása a pysparkhoz, a Spark Connecthez és az SQL-függvényhez
- [SPARK-44614] [SC-138460] [PYTHON] [CONNECT] [3.5] Hiányzó csomagok hozzáadása setup.py
- [SPARK-45151] [SC-142861] [CORE] [Felhasználói felület] Tevékenységszintű szálkép támogatása
- [SPARK-45056] [SC-142779] [PYTHON] [SS] [CONNECT] A streamingQueryListener és a foreachBatch végponttesztjei
- [SPARK-45084] [SC-142828] [SS] StateOperatorProgress a pontos hatékony shuffle partíciószám használatához
- [SPARK-44872] [SC-142405] [CONNECT] Kiszolgáló tesztelése infra és ReattachableExecuteSuite
- [SPARK-45197] [SC-142984] [CORE] Hozzáadás
StandaloneRestServer
JavaModuleOptions
illesztőprogramokhoz - [SPARK-44404] [SC-139601] [SQL] Nevek hozzárendelése a LEGACY_ERROR_TEMP hibaosztályhoz[1009,1010,1013,1015,1016,1278]
- [SPARK-44647] [SC-142297] [SQL] Támogatja az SPJ-t, ha az illesztőkulcsok kisebbek, mint a fürtkulcsok
- [SPARK-45088] [SC-142785] [PYTHON] [CONNECT] Duplikált
getitem
oszlopokkal végzett munka - [SPARK-45128] [SC-142851] [SQL] Támogatás
CalendarIntervalType
a nyílban - [SPARK-45130] [SC-142976] [CONNECT] [ML] [PYTHON] A Spark connect ML-modell elkerülése a bemeneti pandas-adatkeret módosításához
- [SPARK-45034] [SC-142959] [SQL] Determinisztikus módú függvény támogatása
- [SPARK-45173] [SC-142931] [Felhasználói felület] Felesleges sourceMapping-fájlok eltávolítása a felhasználói felületen
- [SPARK-45162] [SC-142781] [SQL] A térképek és tömbparaméterek támogatása a
call_function
- [SPARK-45143] [SC-142840] [PYTHON] [CONNECT] A PySpark kompatibilissé tétele a PyArrow 13.0.0-val
- [SPARK-45174] [SC-142837] [CORE] Támogat
spark.deploy.maxDrivers
- [SPARK-45167] [SC-142956] [CONNECT] [PYTHON] A Python-ügyfélnek meg kell hívnia
release_all
- [SPARK-36191] [SC-142777] [SQL] Korlát és sorrend kezelése korrelált skaláris (oldalirányú) allekérdezésekben
- [SPARK-45159] [SC-142829] [PYTHON] Nevesített argumentumok kezelése csak akkor, ha szükséges
- [SPARK-45133] [SC-142512] [CONNECT] A Spark Connect-lekérdezések KÉSZ állapotba hozása az utolsó eredményfeladat befejezésekor
- [SPARK-44801] [SC-140802] [SQL] [Felhasználói felület] Sikertelen lekérdezések elemzésének rögzítése a figyelőben és a felhasználói felületen
- [SPARK-45139] [SC-142527] [SQL] DatabricksDialect hozzáadása az SQL-típuskonvertálás kezeléséhez
- [SPARK-45157] [SC-142546] [SQL] Kerülje az ismétlődő
if
ellenőrzéseket[On|Off|HeapColumnVector
- [SPARK-45077] "[SC-142069][UI] Dagre-d3.js frissítése 04.3-ról 0.6.4-re"
- [SPARK-45145] [SC-142521] [PÉLDA] JavaSparkSQLCli-példa hozzáadása
- [SPARK-43295] "[SC-142254][PS] Sztringtípus oszlopainak visszaállítása a következőhöz
DataFrameGroupBy.sum
: " - [SPARK-44915] [SC-142383] [CORE] Ellenőrizze az újra csatlakoztatott PVC shuffle-adatainak ellenőrzőösszegét a helyreállítás előtt
- [SPARK-45147] [SC-142524] [CORE] Használat eltávolítása
System.setSecurityManager
- [SPARK-45104] [SC-142206] [Felhasználói felület] Frissítés
graphlib-dot.min.js
az 1.0.2-re - [SPARK-44238] [SC-141606] [CORE] [SQL] Új
readFrom
metódus bevezetése bájttömb bemenettel a következőhöz:BloomFilter
- [SPARK-45060] [SC-141742] [SQL] Belső hiba kijavítása formátumból
to_char()
NULL
- [SPARK-43252] [SC-142381] [SQL] A hibaosztály
_LEGACY_ERROR_TEMP_2016
cseréje belső hibára - [SPARK-45069] [SC-142279] [SQL] Az SQL-változót mindig külső hivatkozás után kell feloldani
- [SPARK-44911] [SC-142388] [SQL] Érvénytelen oszlopot tartalmazó hive-tábla létrehozásakor hibaosztályt kell visszaadni
- [SPARK-42754] [SC-125567] [SQL] [Felhasználói felület] Visszamenőleges kompatibilitási probléma megoldása beágyazott SQL-végrehajtás esetén
- [SPARK-45121] [SC-142375] [CONNECT] [PS] A Spark Connect támogatása
Series.empty
. - [SPARK-44805] [SC-142203] [SQL] getBytes/getShorts/getInts/etc. egy szótárral rendelkező oszlopvektorban kell működnie
- [SPARK-45027] [SC-142248] [PYTHON] Belső függvények/változók elrejtése az
pyspark.sql.functions
automatikus kiegészítésből - [SPARK-45073] [SC-141791] [PS] [CONNECT] Csere erre
LastNotNull
:Last(ignoreNulls=True)
- [SPARK-44901] [SC-141676] [SQL] Manuális backport: API hozzáadása a Python UDTF "analyze" metódusában particionálási/rendezési kifejezések visszaadásához
- [SPARK-45076] [SC-141795] [PS] Váltás beépített
repeat
függvényre - [SPARK-44162] [SC-141605] [CORE] G1GC támogatása Spark-metrikákban
- [SPARK-45053] [SC-141733] [PYTHON] [AL] A Python-verzió eltéréseinek naplózási fejlesztése
- [SPARK-44866] [SC-142221] [SQL] Hozzáadás
SnowflakeDialect
a LOGIKAI TÍPUS helyes kezeléséhez - [SPARK-45064] [SC-141775] [PYTHON] [CONNECT] Adja hozzá a hiányzó paramétert a következőben
scale
:ceil/ceiling
- [SPARK-45059] [SC-141757] [CONNECT] [PYTHON] Függvények hozzáadása
try_reflect
a Scalához és a Pythonhoz - [SPARK-43251] [SC-142280] [SQL] A hibaosztály
_LEGACY_ERROR_TEMP_2015
cseréje belső hibára - [SPARK-45052] [SC-141736] [SQL] [PYTHON] [CONNECT] Függvényaliasok kimeneti oszlopnevének konzisztenssé tétele az SQL-lel
- [SPARK-44239] [SC-141502] [SQL] Nagy vektorok által lefoglalt szabad memória a vektorok alaphelyzetbe állításakor
- [SPARK-43295] [SC-142254] [PS] Támogatási sztringtípus oszlopai a következőhöz:
DataFrameGroupBy.sum
- [SPARK-45080] [SC-142062] [SS] A DSv2 streamelési adatforrások oszlopos verziójának támogatásának explicit meghívása
- [SPARK-45036] [SC-141768] [SQL] SPJ: A részben fürtözött disztribúció kezelésére szolgáló logika egyszerűsítése
- [SPARK-45077] [SC-142069] [Felhasználói felület] Dagre-d3.js frissítése 0.4.3-ról 0.6.4-re
- [SPARK-45091] [SC-142020] [PYTHON] [CONNECT] [SQL] A függvény
floor/round/bround
elfogadja az oszloptípustscale
- [SPARK-45090] [SC-142019] [PYTHON] [CONNECT]
DataFrame.{cube, rollup}
támogatási oszloprendek - [SPARK-44743] [SC-141625] [SQL] Függvény hozzáadása
try_reflect
- [SPARK-45086] [SC-142052] [Felhasználói felület] Hexadecimális megjelenítése szálzárolási kivonatkódhoz
- [SPARK-44952] [SC-141644] [SQL] [PYTHON] Elnevezett argumentumok támogatása összesített Pandas UDF-ekben
- [SPARK-44987] [SC-141552] [SQL] Név hozzárendelése a hibaosztályhoz
_LEGACY_ERROR_TEMP_1100
- [SPARK-45032] [SC-141730] [CONNECT] Fordítással kapcsolatos figyelmeztetések javítása
Top-level wildcard is not allowed and will error under -Xsource:3
- [SPARK-45048] [SC-141629] [CONNECT] További tesztek hozzáadása Python-ügyfélhez és csatolható végrehajtáshoz
- [SPARK-45072] [SC-141807] [CONNECT] Az ammonitosztályok külső hatóköreinek javítása
- [SPARK-45033] [SC-141759] [SQL] Támogatási térképek paraméteresen
sql()
- [SPARK-45066] [SC-141772] [SQL] [PYTHON] [CONNECT] Függvény
repeat
elfogadása oszloptípussaln
- [SPARK-44860] [SC-141103] [SQL] SESSION_USER függvény hozzáadása
- [SPARK-45074] [SC-141796] [PYTHON] [CONNECT]
DataFrame.{sort, sortWithinPartitions}
támogatási oszloprendek - [SPARK-45047] [SC-141774] [PYTHON] [CONNECT]
DataFrame.groupBy
támogatási sorszámok - [SPARK-44863] [SC-140798] [Felhasználói felület] Gomb hozzáadása a szálkép txt formátumban való letöltéséhez a Spark felhasználói felületén
- [SPARK-45026] [SC-141604] [CONNECT]
spark.sql
támogatja a nyíllal nem kompatibilis adattípusokat - [SPARK-44999] [SC-141145] [CORE] Újrabontás
ExternalSorter
a híváskor végzett ellenőrzések csökkentéséhezshouldPartition
getPartition
- [SPARK-42304] [SC-141501] [SQL] Átnevezés
_LEGACY_ERROR_TEMP_2189
:GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
- [SPARK-43781] [SC-139450] [SQL] Az IllegalStateException javítása két azonos forrásból származó adathalmaz együttes csoportosítása esetén
- [SPARK-45018] [SC-141516] [PYTHON] [CONNECT] CalendarIntervalType hozzáadása Python-ügyfélhez
- [SPARK-45024] [SC-141513] [PYTHON] [CONNECT] Egyes konfigurációk szűrése a munkamenet-létrehozásban
- [SPARK-45017] [SC-141508] [PYTHON] Hozzáadás
CalendarIntervalType
a PySparkhoz - [SPARK-44720] [SC-139375] [CONNECT] Adathalmaz használata Kódoló helyett AgnosticEncoder
- [SPARK-44982] [SC-141027] [CONNECT] Spark Connect-kiszolgálókonfigurációk megjelölése statikusként
- [SPARK-44839] [SC-140900] [SS] [CONNECT] Jobb hibanaplózás, amikor a felhasználó megpróbálja szerializálni a Spark-munkamenetet
- [SPARK-44865] [SC-140905] [SS] StreamingRelationV2-támogatás metaadatok oszlopának létrehozása
- [SPARK-45001] [SC-141141] [PYTHON] [CONNECT] DataFrame.foreachPartition implementálása
- [SPARK-44497] [SC-141017] [WEBUI] Feladatpartíció-azonosító megjelenítése a Tevékenység táblában
- [SPARK-45006] [SC-141143] [Felhasználói felület] Az ütemtervek x tengelyének más felhasználói felületi dátumelemeinek dátumformátumának használata
- [SPARK-45000] [SC-141135] [PYTHON] [CONNECT] DataFrame.foreach implementálása
- [SPARK-44967] [SC-141137] [SQL] [CONNECT] Az egységnek először figyelembe kell vennie, mielőtt logikai értéket használ a TreeNodeTaghez
- [SPARK-44993] [SC-141088] [CORE] Hozzáadás
ShuffleChecksumUtils.compareChecksums
újrahasználássalShuffleChecksumTestHelp.compareChecksums
- [SPARK-44807] [SC-140176] [CONNECT] Dataset.metadataColumn hozzáadása a Scala-ügyfélhez
- [SPARK-44965] [SC-141098] [PYTHON] Belső függvények/változók elrejtése
pyspark.sql.functions
- [SPARK-44983] [SC-141030] [SQL] Bináris konvertálás sztringgé a következő formátumok szerint
to_char
:hex
, ,base64
utf-8
- [SPARK-44980] [DBRRM-462] [SC-141024] [PYTHON] [CONNECT] Örökölt névvel ellátott elnevezett függvények javítása a createDataFrame-ben való működéshez
- [SPARK-44985] [SC-141033] [CORE] Stacktrace helyett a toString használata a tevékenység-újraapering szálhozDump
- [SPARK-44984] [SC-141028] [PYTHON] [CONNECT] Eltávolítás
_get_alias
a DataFrame-ből - [SPARK-44975] [SC-141013] [SQL] BinaryArithmetic felesleges felülbírálás feloldva eltávolítása
- [SPARK-44969] [SC-140957] [SQL] Újrafelhasználás
ArrayInsert
a következőben:ArrayAppend
- [SPARK-44549] [SC-140714] [SQL] Az ablakfüggvények támogatása korrelált skaláris al lekérdezésekben
- [SPARK-44938] [SC-140811] [SQL] Alapértelmezett érték
spark.sql.maxSinglePartitionBytes
módosítása 128 m értékre - [SPARK-44918] [SC-140816] [SQL] [PYTHON] Elnevezett argumentumok támogatása skaláris Python-/Pandas UDF-ekben
- [SPARK-44966] [SC-140907] [CORE] [CONNECT] A soha nem módosítottak
var
módosításaval
- [SPARK-41471] [SC-140804] [SQL] A Spark-shuffle csökkentése, ha az illesztésnek csak az egyik oldala a KeyGroupedPartitioning
- [SPARK-44214] [SC-140528] [CORE] A Spark-illesztőprogram élő naplójának felhasználói felületének támogatása
- [SPARK-44861] [SC-140716] [CONNECT] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44776] [SC-140519] [CONNECT] ProducedRowCount hozzáadása a SparkListenerConnectOperationFinished elemhez
- [SPARK-42017] [SC-140765] [PYTHON] [CONNECT]
df['col_name']
érvényesítenie kell az oszlop nevét - [SPARK-40178] [SC-140433] [SQL] [COONECT] A PySpark és az R támogatásának támogatása
- [SPARK-44840] [SC-140593] [SQL] Negatív indexek 1-alapúvá tétele
array_insert()
- [SPARK-44939] [SC-140778] [R] Java 21 támogatása a SparkR SystemRequirementsben
- [SPARK-44936] [SC-140770] [CORE] A napló egyszerűsítése, amikor a Spark HybridStore eléri a memóriakorlátot
- [SPARK-44908] [SC-140712] [ML] [CONNECT] Kereszt-érvényesítő foldCol param funkcióinak javítása
- [SPARK-44816] [SC-140717] [CONNECT] A hibaüzenet javítása, ha nem található UDF-osztály
- [SPARK-44909] [SC-140710] [ML] Ha nem érhető el, hagyja ki az indítási fáklya forgalmazói naplóstreamelési kiszolgálót
- [SPARK-44920] [SC-140707] [CORE] A await() használata a awaitUninterruptibly() helyett a TransportClientFactory.createClient() alkalmazásban
- [SPARK-44905] [SC-140703] [SQL] A stateful lastRegex nullPointerException-t okoz a regexp_replace
- [SPARK-43987] [SC-139594] [Shuffle] A VéglegesítésShuffleMerge-feldolgozás elkülönítése dedikált szálkészletekhez
- [SPARK-42768] [SC-140549] [SQL] A gyorsítótárazott csomag engedélyezése alapértelmezés szerint alkalmazza az AQE-t
- [SPARK-44741] [SC-139447] [CORE] Regex-alapú MetricFilter támogatása a következőben:
StatsdSink
- [SPARK-44751] [SC-140532] [SQL] XML FileFormat Interface implementálása
- [SPARK-44868] [SC-140438] [SQL] Datetime konvertálása sztringgé a következő szerint:
to_char
/to_varchar
- [SPARK-44748] [SC-140504] [SQL] Lekérdezés végrehajtása a PARTITION BY záradékhoz az UDTF TABLE argumentumokban
- [SPARK-44873] [SC-140427] Az alter view támogatása beágyazott oszlopokkal a Hive-ügyfélben
- [SPARK-44876] [SC-140431] [PYTHON] Nyíloptimalizált Python UDF javítása a Spark Connecten
- [SPARK-44520] [SC-137845] [SQL] Cserélje le a UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY kifejezést a UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY és a közzétételi gyökér AE kifejezésre
- [SPARK-42664] [SC-139769] [CONNECT] Támogatási függvény a következőhöz
bloomFilter
:DataFrameStatFunctions
- [SPARK-43567] [SC-139227] [PS] Támogatás a következőhöz
use_na_sentinel
:factorize
- [SPARK-44859] [SC-140254] [SS] Helytelen tulajdonságnév javítása strukturált streamelési dokumentumban
- [SPARK-44822] [SC-140182] [PYTHON] [SQL] Python UDTF-ek létrehozása alapértelmezés szerint nem determinisztikus
- [SPARK-44731] [SC-139524] [PYTHON] [CONNECT] A TimestampNTZ használata literálokkal a Python Spark Connectben
- [SPARK-44836] [SC-140180] [PYTHON] Arrow Python UDTF újrabontása
- [SPARK-44714] [SC-139238] Az LCA-feloldás egyszerű korlátozása olyan lekérdezésekre vonatkozóan, amelyek
- [SPARK-44749] [SC-139664] [SQL] [PYTHON] Elnevezett argumentumok támogatása a Python UDTF-ben
- [SPARK-44737] [SC-139512] [SQL] [Felhasználói felület] Nem jelenik meg json formátumhibák az SQL-lapon a nem SparkThrowables esetén az SQL Tabon
- [SPARK-44665] [SC-139307] [PYTHON] A pandas DataFrame assertDataFrameEqual támogatásának hozzáadása
- [SPARK-44736] [SC-139622] [CONNECT] Dataset.explode hozzáadása a Spark Connect Scala-ügyfélhez
- [SPARK-44732] [SC-139422] [SQL] Beépített XML-adatforrás támogatása
- [SPARK-44694] [SC-139213] [PYTHON] [CONNECT] Aktív munkamenetek újrabontása és API-ként való elérhetővé ta
- [SPARK-44652] [SC-138881] Hiba felmerülése, ha csak egy df nincs
- [SPARK-44562] [SC-138824] [SQL] OptimizeOneRowRelationSubquery hozzáadása a subquery kötegében
- [SPARK-44717] [SC-139319] [PYTHON] [PS] A TimestampNTZ tiszteletben tartása az újramintázás során
- [SPARK-42849] [SC-139365] [SQL] Munkamenet-változók
- [SPARK-44236] [SC-139239] [SQL] A WholeStageCodegen letiltása NO_CODEGEN
spark.sql.codegen.factoryMode
- [SPARK-44695] [SC-139316] [PYTHON] Hibaüzenet javítása a következőhöz:
DataFrame.toDF
- [SPARK-44680] [SC-139234] [SQL] A paraméterek hibáinak javítása a következőben:
DEFAULT
- [SPARK-43402] [SC-138321] [SQL] A FileSourceScanExec skaláris alqueryvel támogatja a leküldéses adatszűrőt
- [SPARK-44641] [SC-139216] [SQL] Helytelen eredmény bizonyos helyzetekben, ha az SPJ nem aktiválódik
- [SPARK-44689] [SC-139219] [CONNECT] A függvény
SparkConnectPlanner#unpackScalarScalaUDF
kivételkezelésének univerzálisabbá tétele - [SPARK-41636] [SC-139061] [SQL] Ügyeljen arra, hogy
selectFilters
a predikátumokat determinisztikus sorrendben adja vissza - [SPARK-44132] [SC-139197] [SQL] Illesztőoszlopnevek materializálása
Stream
a kodekhiba elkerülése érdekében - [SPARK-42330] [SC-138838] [SQL] A név
RULE_ID_NOT_FOUND
hozzárendelése a hibaosztályhoz_LEGACY_ERROR_TEMP_2175
- [SPARK-44683] [SC-139214] [SS] A naplózási szint nincs megfelelően átadva a RocksDB állapottároló szolgáltatójának
- [SPARK-44658] [SC-138868] [CORE]
ShuffleStatus.getMapStatus
vissza kell térnieNone
ahelyett, hogySome(null)
- [SPARK-44603] [SC-138353] Pyspark.testing hozzáadása setup.py
- [SPARK-44252] [SC-137505] [SS] Adjon meg egy új hibaosztályt, és alkalmazza azokra az esetekre, amikor az elosztott fájlrendszerből való betöltési állapot meghiúsul
- [SPARK-29497] [DBRRM-396] [SC-138477] [CONNECT] Hibajelzés, ha az UDF nem deszerializálható.
- [SPARK-44624] [DBRRM-396] [SC-138900] [CONNECT] Az ExecutePlan újrapróbálkozva, ha a kezdeti kérés nem érte el a kiszolgálót
- [SPARK-41400] [DBRRM-396] [SC-138287] [CONNECT] Kapcsolati ügyfél katalizátor függőségének eltávolítása
- [SPARK-44059] [SC-138833] [SQL] Jobb hibaüzenetek hozzáadása a névvel ellátott SQL-hez
- [SPARK-44620] [SC-138831] [SQL] [PS] [CONNECT] Őrizze meg
ResolvePivot
aPlan_ID_TAG
- [SPARK-43838] [SC-137413] [SQL] Az egytáblás al lekérdezések javítása záradékkal nem optimalizálható
- [SPARK-44555] [SC-138820] [SQL] A checkError() paranccsal ellenőrizze a kivételt a Suite parancsban , és rendeljen hozzá néhány hibaosztálynevet
- [SPARK-44280] [SC-138821] [SQL] ConvertJavaTimestampToTimestamp hozzáadása a JDBCDialect API-ban
- [SPARK-44602] [SC-138337] [SQL] [CONNECT] [PS] Őrizze meg
WidenSetOperationTypes
aPlan_ID_TAG
- [SPARK-42941] [SC-138389] [SS] [CONNECT] Python StreamingQueryListener
- [SPARK-43838] "[SC-137413][SQL] A subquery javítása egyetlen ta...
- [SPARK-44538] [SC-138178] [CONNECT] [SQL] Row.jsonValue és barátainak visszaállítása
- [SPARK-44421] [SC-138434] [SPARK-44423] [CONNECT] Újracsatlakoztatható végrehajtás a Spark Connectben
- [SPARK-43838] [SC-137413] [SQL] Az egytáblás al lekérdezések javítása záradékkal nem optimalizálható
- [SPARK-44587] [SC-138315] [SQL] [CONNECT] Protobuf marshaller rekurziós korlátjának növelése
- [SPARK-44605] [SC-138338] [CORE] Belső ShuffleWriteProcessor API finomítása
- [SPARK-44394] [SC-138291] [CONNECT] [WEBUI] Spark-felhasználói felület hozzáadása a Spark Connecthez
- [SPARK-44585] [SC-138286] [MLLIB] Az MLLib RankingMetrics ndcgAk figyelmeztetési feltételének javítása
- [SPARK-44198] [SC-138137] [CORE] A naplószint propagálásának támogatása a végrehajtók számára
- [SPARK-44454] [SC-138071] [SQL] [HIVE] HiveShim getTablesByType támogatási tartalék
- [SPARK-44425] [SC-138135] [CONNECT] Ellenőrizze, hogy a felhasználó által megadott sessionId egy UUID-e
- [SPARK-43611] [SC-138051] [SQL] [PS] [CONNCECT] Őrizze meg
ExtractWindowExpressions
aPLAN_ID_TAG
- [SPARK-44560] [SC-138117] [PYTHON] [CONNECT] A Arrow Python UDF tesztjeinek és dokumentációjának fejlesztése
- [SPARK-44482] [SC-138067] [CONNECT] A kapcsolódási kiszolgálónak meg kell adnia a kötési címet
- [SPARK-44528] [SC-138047] [CONNECT] A hasattr() megfelelő használatának támogatása Connect-adatkerethez
- [SPARK-44525] [SC-138043] [SQL] A hibaüzenet javítása, ha a meghívási módszer nem található
- [SPARK-44355] [SC-137878] [SQL] A WithCTE áthelyezése parancs-lekérdezésekbe
Databricks ODBC/JDBC illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.0.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | fekete | 22.6.0 | fehérítő | 4.1.0 |
villogó | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
minősítés | 2022.12.7 | cffi | 1.15.1 | karakterkészlet | 4.0.0 |
charset-normalizer | 2.0.4 | kattintás | 8.0.4 | Comm | 0.1.2 |
contourpy | 1.0.5 | kriptográfia | 39.0.1 | biciklista | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
hibakeresés | 1.6.7 | lakberendező | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0,11 | belépési pontok | 0,4 |
Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 | fastjsonschema | 2.18.0 |
filelock | 3.12.3 | betűtípusok | 4.25.0 | GCC futtatókörnyezeti kódtár | 1.10.0 |
googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | grpcio-status | 1.48.1 |
httplib2 | 0.20.2 | idna | 3.4 | importlib-metadata | 4.6.4 |
ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | Jeepney | 0.7.1 |
Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.17.3 | jupyter-client | 7.3.4 | jupyter-server | 1.23.4 |
jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgetek | 1.0.0 |
kulcstartó | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
nodeenv | 1.8.0 | jegyzetfüzet | 6.5.2 | notebook_shim | 0.2.2 |
numpy | 1.23.5 | oauthlib | 3.2.0 | csomagolás | 22,0 |
pandas | 1.5.3 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.10.3 | Patsy | 0.5.3 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Párna | 9.4.0 | mag | 22.3.1 |
platformdirs | 2.5.2 | ábrázolás | 5.9.0 | pluggy | 1.0.0 |
prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 | protobuf | 4.24.0 |
psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 8.0.0 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
kérelmek | 2.28.1 | kötél | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | tengeri | 0.12.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 65.6.3 | Hat | 1.16.0 |
sniffio | 1.2.0 | levessieve | 2.3.2.post1 | ssh-import-id | 5,11 |
veremadatok | 0.2.0 | statsmodels | 0.13.5 | Kitartás | 8.1.0 |
terminado | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornádó | 6.1 |
árulók | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
wadllib | 1.3.6 | wcwidth | 0.2.5 | webencodings | 0.5.1 |
websocket-client | 0.58.0 | whatthepatch | 1.0.2 | kerék | 0.38.4 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
SciPy | 1.10.1 |
Telepített R-kódtárak
Az R-kódtárak a Posit Csomagkezelő CRAN-pillanatképből vannak telepítve 2023-02-10-én.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 12.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
backports | 1.4.1 | alap | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
indítás | 1.3-28 | főz | 1.0-8 | Brio | 1.1.3 |
seprű | 1.0.5 | bslib | 0.5.0 | gyorsítótár | 1.0.8 |
hívó | 3.7.3 | kalap | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | osztály | 7.3-22 | Cli | 3.6.1 |
clipr | 0.8.0 | óra | 0.7.0 | fürt | 2.1.4 |
kódtoolok | 0.2-19 | színtér | 2.1-0 | commonmark | 1.9.0 |
fordítóprogram | 4.3.1 | config | 0.3.1 | Ütközött | 1.2.0 |
cpp11 | 0.4.4 | zsírkréta | 1.5.2 | hitelesítő adatok | 1.3.2 |
csavarodik | 5.0.1 | data.table | 1.14.8 | adatkészletek | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | Desc | 1.4.2 |
devtools | 2.4.5 | diagram | 1.6.5 | diffobj | 0.3.5 |
emészt | 0.6.33 | levilágított | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | három pont | 0.3.2 |
evaluate | 0.21 | fani | 1.0.4 | farver | 2.1.1 |
gyorstérkép | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | külföldi | 0.8-82 | kovácsol | 0.2.0 |
Fs | 1.6.2 | jövő | 1.33.0 | future.apply | 1.11.0 |
gargarizál | 1.5.1 | Generikus | 0.1.3 | Gert | 1.9.2 |
ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globális | 0.16.2 | ragasztó | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.3.1 | grDevices | 4.3.1 | rács | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
hardhat | 1.3.0 | kikötő | 2.5.3 | highr | 0.10 |
Hms | 1.1.3 | htmltoolok | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
Azonosítók | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
izoband | 0.2.7 | iterátorok | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
címkézés | 0.4.2 | később | 1.3.1 | rács | 0.21-8 |
láva | 1.7.2.1 | életciklus | 1.0.3 | figyelő | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1,7 |
TÖMEG | 7.3-60 | Mátrix | 1.5-4.1 | memoise | 2.0.1 |
metódusok | 4.3.1 | mgcv | 1.8-42 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
párhuzamosan | 1.36.0 | pillér | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | rétegelt | 1.8.8 | dicséret | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | haladás | 1.2.2 |
progressr | 0.13.0 | Ígér | 1.2.0.1 | Proto | 1.0.0 |
helyettes | 0.4-27 | Ps | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
olvasó | 2.1.4 | readxl | 1.4.3 | receptek | 1.0.6 |
Visszavágót | 1.0.1 | visszavágó2 | 2.1.2 | Távirányító | 2.4.2 |
reprex | 2.0.2 | újraformázás2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.6 | mérleg | 1.2.1 |
választó | 0.4-2 | sessioninfo | 1.2.2 | alak | 1.4.6 |
Fényes | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
SparkR | 3.5.0 | térbeli | 7.3-15 | splines | 4.3.1 |
sqldf | 0.4-11 | NÉGYZET | 2021.1 | statisztika | 4.3.1 |
statisztikák4 | 4.3.1 | stringi | 1.7.12 | sztring | 1.5.0 |
túlélés | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
tcltk | 4.3.1 | testthat | 3.1.10 | szövegformázás | 0.3.6 |
tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 2.0.0 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0,45 | eszközök | 4.3.1 | tzdb | 0.4.0 |
urlchecker | 1.0.1 | usethis | 2.2.2 | utf8 | 1.2.3 |
eszközök | 4.3.1 | uuid | 1.1-0 | vctrs | 0.6.3 |
viridisLite | 0.4.2 | vroom | 1.6.3 | Waldo | 0.5.1 |
bajusz | 0.4.1 | withr | 2.5.0 | xfun | 0,39 |
xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | fütyülés | 2.3.0 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.7.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natívok |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natívok |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natívok |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natívok |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Csellengő | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-spark_2.12 | 0.7.5 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrikamag | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-zokni | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pác | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.33 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | nyílformátum | 12.0.1 |
org.apache.arrow | nyíl-memóriamag | 12.0.1 |
org.apache.arrow | nyíl-memória-netty | 12.0.1 |
org.apache.arrow | nyíl-vektor | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | borostyán | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | célközönség-széljegyzetek | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | móló-folytatás | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | móló plusz | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | Alátéteket | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-kompatibilis | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.threeten | három-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2,0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |