Databricks Runtime 13.2 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.4.0-s verziójával működő Databricks Runtime 13.2-ről nyújtanak információkat.
A Databricks 2023 júliusában adta ki ezt a verziót.
Új funkciók és fejlesztések
- Changelog checkpointing for RocksDB state store
- Nagyobb megbízhatóság a VACUUM-hoz sekély klónokkal a Unity Katalógusban.
- Python UDF-ek támogatása az SQL-ben
- A Delta Lake UniForm for Iceberg nyilvános előzetes verzióban érhető el
- A Delta Lake folyékony fürtözés nyilvános előzetes verzióban érhető el
- Archiválási támogatás az Azure Databricksben
- IDENTIFIER záradék támogatása
- A Unity Catalog támogatása Python és Pandas felhasználó által definiált függvényekhez (UDF-ek)
- Sémák megosztása a Delta Sharing használatával
- Hibajavítások
Changelog checkpointing for RocksDB state store
Az állapotalapú strukturált streamelési számítási feladatok esetében engedélyezheti a változásnapló-ellenőrzőpont-ellenőrzést, hogy csökkentse az ellenőrzőpontok időtartamát és a végpontok közötti késést. A Databricks azt javasolja, hogy engedélyezze a változásnapló-ellenőrzőpontozást az összes strukturált streamelési állapotalapú lekérdezéshez. Lásd: Változásnapló-ellenőrzőpont-ellenőrzés engedélyezése.
Nagyobb megbízhatóság a VACUUM-hoz sekély klónokkal a Unity Katalógusban.
Ha a Unity Catalog által felügyelt táblákat használ egy sekély klónozási művelet forrásához és céljához, a Unity Catalog kezeli a mögöttes adatfájlokat a klónozási művelet forrásának és céljának megbízhatóságának javítása érdekében. A sekély klón forrásán való futtatás VACUUM
nem szakítja meg a klónozott táblát. Lásd: Vacuum és Unity Catalog sekély klónok.
Python UDF-ek támogatása az SQL-ben
Mostantól a Python használatával deklarálhat felhasználó által definiált függvényeket a Unity Catalog SQL-utasításaiban CREATE FUNCTION
. Lásd a felhasználó által definiált függvényeket (UDF-eket) a Unity Catalogban.
A Delta Lake UniForm for Iceberg nyilvános előzetes verzióban érhető el
A Delta Lake Universal Format (UniForm) lehetővé teszi Delta-táblák olvasását Iceberg-ügyfelekkel. Lásd: Delta-táblák olvasása Az UniForm használata Iceberg-ügyfelekkel.
A Delta Lake folyékony fürtözés nyilvános előzetes verzióban érhető el
A Delta Lake folyékony fürtözés felváltja a táblaparticionálást, és ZORDER
egyszerűsíti az adatelrendezési döntéseket és optimalizálja a lekérdezési teljesítményt. Lásd: Folyékony fürtözés használata Delta-táblákhoz.
Archiválási támogatás az Azure Databricksben
Az Azure Databricks archiválási támogatása olyan képességek gyűjteménye, amelyek lehetővé teszik a felhőalapú életciklus-szabályzatok használatát a Delta-táblákat tartalmazó felhőobjektum-tárolóban a fájlok archiválási tárolási szintekre való áthelyezéséhez. Lásd: Archival support in Azure Databricks.
IDENTIFIER záradék támogatása
Segítségével IDENTIFIER(:mytable)
biztonságosan paraméterezhetők a táblák, oszlopok, függvények és sémanevek számos SQL-utasításban.
A Unity Catalog támogatása Python és Pandas felhasználó által definiált függvényekhez (UDF-ek)
A Databricks Runtime 13.2-ben és újabb verziókban a Pythonban írt, felhasználó által definiált függvények (UDF-ek) támogatottak olyan fürtökön, amelyek megosztott hozzáférési módot használnak egy Unity Catalog-kompatibilis munkaterületen. Ide tartoznak a Python és a Pandas UDF-ek. A Python UDF-ekkel kapcsolatos részletekért lásd: Felhasználó által definiált skaláris függvények – Python.
Sémák megosztása a Delta Sharing használatával
A Databricks Runtime 13.2 lehetővé teszi ALTER SHARE <share-name> ADD SCHEMA <schema-name>
egy teljes séma megosztását a Delta Sharing használatával, így a címzett a megosztás pillanatában hozzáférhet a séma összes táblájához és nézetéhez, valamint a sémához a jövőben hozzáadott táblákhoz és nézetekhez. Lásd: Séma hozzáadása megosztáshoz és ALTER SHARE.
Hibajavítások
- Kijavítottunk egy hibát a JSON-olvasónál, ahol engedélyezve volt a rekordok elemzése
PERMISSIVE
módbanfailOnUnknownFieldsmode
. A rekordok most már módban vannak elvetveDROPMALFORMEDparser
, vagy ha ezek közül bármelyik beállítás be van állítva, a rendszer kiírja abadRecordsPath
rekordokat a módban.FAILFAST
hibát jelez, ha egy oszloptípus nem egyezik.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- nodeenv 1.7.0 és 1.8.0 között
- Frissített R-kódtárak:
- Frissített Java-kódtárak:
- io.delta.delta-sharing-spark_2.12 0.6.7 és 0.7.0 között
Apache Spark
A Databricks Runtime 13.2 tartalmazza az Apache Spark 3.4.0-t. Ez a kiadás tartalmazza a Databricks Runtime 13.1 -ben (EoS) található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-42750] [SC-133452] [DBRRM-273] Támogatás beszúrása név szerint utasítás szerint
- [SPARK-43133] [SC-133728] Scala Client DataStreamWriter Foreach támogatása
- [SPARK-43663] [SC-134135] [CONNECT] [PS] Engedélyez
SeriesParityTests.test_compare
- [SPARK-43684] [SC-134162] [SPARK-43685] [SPARK-43686] [SPARK-43691] [CONNECT] [PS] Javítás
(NullOps|NumOps).(eq|ne)
a Spark Connecthez. - [SPARK-44021] [SC-134109] [SQL] Spark.sql.files.maxPartitionNum hozzáadása
- [SPARK-43910] [SC-132936] [SQL] Az azonosítók hibáinak csíkozása
__auto_generated_subquery_name
- [SPARK-43976] [SC-133375] [CORE] Annak az esetnek a kezelése, amikor a modifiedConfigs nem létezik az eseménynaplókban
- [SPARK-32559] [SC-133992] [SQL] A vágási logika javítása nem kezelte megfelelően az ASCII vezérlőkarakterek használatát
- [SPARK-43421] [SC-132930] [SS] Changelog-alapú ellenőrzőpont-készítés implementálása a RocksDB State Store-szolgáltatóhoz
- [SPARK-43594] [SC-133851] [SQL] LocalDateTime hozzáadása az anyToMicroshoz
- [SPARK-43884] [SC-133867] Paramjelölők a DDL-ben
- [SPARK-43398] [SC-133894] [CORE] A végrehajtó időtúllépésének maximális tétlenségi és rdd-időtúllépési értéknek kell lennie
- [SPARK-43610] [SC-133892] [CONNECT] [PS] Engedélyezés
InternalFrame.attach_distributed_column
a Spark Connectben. - [SPARK-43971] [SC-133826] [CONNECT] [PYTHON] A Python createDataFrame-jének támogatása streamelési módon
- [SPARK-44006] [SC-133652] [CONNECT] [PYTHON] Gyorsítótár-összetevők támogatása
- [SPARK-43790] [SC-133468] [PYTHON] [CONNECT] [ML] API hozzáadása
copyFromLocalToFs
- [SPARK-43921] [SC-133461] [PROTOBUF] Protobuf leírófájlok létrehozása a létrehozáskor
- [SPARK-43906] [SC-133638] [SC-133404] [PYTHON] [CONNECT] A fájltámogatás implementálása a SparkSession.addArtifacts szolgáltatásban
- [SPARK-44010] [SC-133744] [PYTHON] [SS] [AL] Python StreamingQueryProgress sorokPerSecond típusú javítás
- [SPARK-43768] [SC-132398] [PYTHON] [CONNECT] Python-függőségkezelés támogatása a Python Spark Connectben
- [SPARK-43979] [13.X] "[SC-133456][SQL] A CollectedMetricst ugyanúgy kell kezelni az öncsatlakozáshoz"
- [SPARK-42290] [SC-133696] [SQL] Az OOM-hiba javítása nem jelenthető, ha az AQE be van kapcsolva
- [SPARK-43943] [SC-133648] [SQL] [PYTHON] [CONNECT] SQL matematikai függvények hozzáadása a Scalához és a Pythonhoz
- [SPARK-43747] [SC-132047] [PYTHON] [CONNECT] A pyfile-támogatás implementálása a SparkSession.addArtifactsban
- [SPARK-43700] [SC-133726] [SPARK-43701] [CONNECT] [PS] Engedélyezés
TimedeltaOps.(sub|rsub)
a Spark Connect használatával - [SPARK-43712] [SC-133641] [SPARK-43713] [CONNECT] [PS] Paritásteszt engedélyezése:
test_line_plot
,test_pie_plot
. - [SPARK-43867] [SC-132895] [SQL] A feloldatlan attribútum javasolt jelöltjeinek javítása
- [SPARK-43901] [SC-133454] [SQL] Avro to Support custom decimal type backed by Long
- [SPARK-43267] [SC-133024] [JDBC] Ismeretlen, felhasználó által definiált oszlop postgres kezelése karakterláncként a tömbben
- [SPARK-43935] [SC-133637] [SQL] [PYTHON] [CONNECT] Xpath_* függvények hozzáadása a Scalához és a Pythonhoz
- [SPARK-43916] [SC-133647] [SQL] [PYTHON] [CONNECT] Percentilis hozzáadása a Scalához és a Python API-hoz
- [SPARK-43717] [SC-133455] [CONNECT] A Scala ügyfél-csökkentési agg. nem tudja kezelni a null partíciókat a scala primitív bemeneteihez
- [SPARK-43984] [SC-133469] [SQL] [PROTOBUF] Váltás a használatra
foreach
, hamap
nem hoz létre eredményt - [SPARK-43612] [SC-132011] [CONNECT] [PYTHON] SparkSession.addArtifact(ok) implementálása Python-ügyfélben
- [SPARK-44002] [SC-133606] [CONNECT] Az összetevő állapotkezelőjének javítása
- [SPARK-43933] [SC-133470] [SQL] [PYTHON] [CONNECT] Lineáris regressziós aggregátumfüggvények hozzáadása a Scalához és a Pythonhoz
- [SPARK-43920] [SC-133614] [SQL] [CONNECT] SQL/API-modul létrehozása
- [SPARK-43979] [SC-133456] [SQL] A CollectedMetricst ugyanúgy kell kezelni az öncsatlakozáshoz
- [SPARK-43977] [SC-133373] [CONNECT] A váratlan ellenőrzés eredményének javítása
dev/connect-jvm-client-mima-check
- [SPARK-43985] [SC-133412] [PROTOBUF] spark protobuf: enumerálás ints hibaként
- [SPARK-43930] [SC-133406] [SQL] [PYTHON] [CONNECT] Unix_* függvények hozzáadása a Scalához és a Pythonhoz
- [SPARK-43807] [SC-132545] [SQL] _LEGACY_ERROR_TEMP_1269 migrálása PARTITION_SCHEMA_IS_EMPTY
- [SPARK-43956] [SC-133123] [SQL] A hiba kijavítása nem jeleníti meg az oszlop sql-jét a Percentile[Cont|Lemez]
- [SPARK-42626] [SC-133248] [CONNECT] Pusztító iterátor hozzáadása a SparkResulthoz
- [SPARK-43333] [SC-132898] [SQL] Az Avro a mezőnév stabil és típusával rendelkező SQL-vé alakíthatja az egyesítő típust
- [SPARK-43953] [SC-133134] [CONNECT] Eltávolít
pass
- [SPARK-43970] [SC-133403] [PYTHON] [CONNECT] Nem támogatott adatkeret-metódusok elrejtése az automatikus kiegészítésből
- [SPARK-43973] [SC-133272] [SS] [Felhasználói felület] A strukturált streamelési felhasználói felületnek megfelelően kell megjelenítenie a sikertelen lekérdezéseket
- [SPARK-42577] [SC-125445] [CORE] A szakaszok maximális próbálkozási korlátozásának hozzáadása a lehetséges végtelen újrapróbálkozások elkerülése érdekében
- [SPARK-43841] [SC-132699] [SQL] Jelölt attribútumok kezelése előtag nélkül a következőben:
StringUtils#orderSuggestedIdentifiersBySimilarity
- [SPARK-41497] [SC-124795] [CORE] [Nyomon követés] A konfiguráció
spark.rdd.cache.visibilityTracking.enabled
támogatási verziójának módosítása a 3.5.0-ra - [SPARK-37942] [SC-130983] [CORE] [SQL] Hibaosztályok migrálása
- [SPARK-43898] [SC-132926] [CORE] Automatikus regisztráció
immutable.ArraySeq$ofRef
aKryoSerializer
Scala 2.13-hoz - [SPARK-43775] [SC-132891] [SQL] DataSource V2: A frissítések törlésének és beszúrásának engedélyezése
- [SPARK-43817] [SC-132662] [SPARK-43702] [PYTHON] UserDefinedType támogatása a createDataFrame-ben a pandas DataFrame-ből és a toPandasból
- [SPARK-43418] [SC-132753] [SC-130685] [CONNECT] SparkSession.Builder.getOrCreate hozzáadása
- [SPARK-43549] [SC-132383] [SQL] Konvertálja _LEGACY_ERROR_TEMP_0036 INVALID_SQL_SYNTAX. ANALYZE_TABLE_UNEXPECTED_NOSCAN
- [SPARK-41497] [SC-124644] [CORE] Az újrapróbálkozási feladat rdd cache-sel történő újrapróbálkozási feladat esetén az akkumulátorok számának javítása
- [SPARK-43892] [SC-133006] [PYTHON] Automatikus kiegészítési támogatás hozzáadása a következőhöz
df[|]
:pyspark.sql.dataframe.DataFrame
- [SPARK-43881] [SC-133140] [SQL] [PYTHON] [CONNECT] Választható minta hozzáadása a Catalog.listDatabaseshez
- [SPARK-43205] [SC-132623] IDENTIFIER záradék
- [SPARK-43545] [SC-132378] [SQL] [PYTHON] Beágyazott időbélyeg típus támogatása
- [SPARK-43949] [SC-133048] [PYTHON] Cloudpickle frissítése a 2.2.1-re
- [SPARK-43760] [SC-132809] [SQL] A skaláris részkérdezés eredményeinek érvénytelensége
- [SPARK-43696] [SC-132737] [SPARK-43697] [SPARK-43698] [SPARK-43699] [PS] Javítás
TimedeltaOps
a Spark Connecthez - [SPARK-43895] [SC-132897] [CONNECT] [GO] A go csomag elérési útjának előkészítése
- [SPARK-43894] [SC-132892] [PYTHON] Hiba javítása a df.cache() fájlban
- [SPARK-43509] [SC-131625] [CONNECT] Több Spark Connect-munkamenet létrehozásának támogatása
- [SPARK-43882] [SC-132888] [SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2122
- [SPARK-43687] [SC-132747] [SPARK-43688] [SPARK-43689] [SPARK-43690] [PS] Javítás
NumOps
a Spark Connecthez - [SPARK-43604] [SC-132165] [SQL] Újrabontás
INVALID_SQL_SYNTAX
a hibaszöveg forráskódba való beágyazásának elkerüléséhez - [SPARK-43859] [SC-132883] [SQL] Felülbírálás toString in LateralColumnAliasReference
- [SPARK-43792] [SC-132939] [SQL] [PYTHON] [CONNECT] Választható minta hozzáadása a Catalog.listCatalogshoz
- [SPARK-43353] "[SC-132734][PYTHON] A fennmaradó munkamenethibák migrálása hibaosztályba"
- [SPARK-43375] [SC-130309] [CONNECT] A INVALID_CONNECT_URL hibaüzeneteinek javítása
- [SPARK-43863] [SC-132721] [CONNECT] Redundáns
toSeq
eltávolítása a Scala 2.13-rólSparkConnectPlanner
- [SPARK-43676] [SC-132708] [SPARK-43677] [SPARK-43678] [SPARK-43679] [PS] Javítás
DatetimeOps
a Spark Connecthez - [SPARK-43666] [SC-132689] [SPARK-43667] [SPARK-43668] [SPARK-43669] [PS] Javítás
BinaryOps
a Spark Connecthez - [SPARK-43680] [SC-132709] [SPARK-43681] [SPARK-43682] [SPARK-43683] [PS] Javítás
NullOps
a Spark Connecthez - [SPARK-43782] [SC-132885] [CORE] Naplószintű konfiguráció támogatása statikus Spark-konfigurálással
- [SPARK-43132] [SC-131623] [SS] [CONNECT] Python Client DataStreamWriter foreach() API
- [SPARK-43290] [SC-131961] [SQL] AES IV és AAD-támogatás hozzáadása a ExpressionImplUtilshez
- [SPARK-43795] [SC-132532] [CONNECT] A SparkConnectPlannerhez nem használt paraméterek eltávolítása
- [SPARK-42317] [SC-129194] [SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2247: CANNOT_MERGE_SCHEMAS
- [SPARK-43597] [SC-131960] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_0017 hibaosztályhoz
- [SPARK-43834] [SC-132679] [SQL] Hibaosztályok használata a következő fordítási hibákban:
ResolveDefaultColumns
- [SPARK-43749] [SC-132423] [SPARK-43750] [SQL] Nevek hozzárendelése a _LEGACY_ERROR_TEMP_240 hibaosztályhoz[4-5]
- [SPARK-43576] [SC-132533] [CORE] Nem használt deklarációk eltávolítása a Core-modulból
- [SPARK-43314] [SC-129970] [CONNECT] [PYTHON] Spark Connect-ügyfél hibáinak migrálása hibaosztályba
- [SPARK-43799] [SC-132715] [PYTHON] Leíró bináris beállítás hozzáadása a Pyspark Protobuf API-hoz
- [SPARK-43837] [SC-132678] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_103[1-2] hibaosztályhoz
- [SPARK-43862] [SC-132750] [SQL] Név hozzárendelése a LEGACY_ERROR_TEMP hibaosztályhoz (1254 és 1315)
- [SPARK-43886] [SC-132808] [PYTHON] Általános elemek elfogadása a Pandas UDF gépelési tippjeiként
- [SPARK-43530] [SC-132653] [PROTOBUF] Leírófájl írása csak egyszer
- [SPARK-43820] [SC-132676] [SPARK-43822] [SPARK-43823] [SPARK-43826] [SPARK-43827] Nevek hozzárendelése a _LEGACY_ERROR_TEMP_241[1-7] hibaosztályhoz
- [SPARK-43671] [SC-132519] [SPARK-43672] [SPARK-43673] [SPARK-43674] [PS] Javítás
CategoricalOps
a Spark Connecthez - [SPARK-39979] [SC-132685] [SQL] Lehetőség hozzáadása nagy változószélesség-vektorok használatára nyíl UDF-műveletekhez
- [SPARK-43692] [SC-132660] [SPARK-43693] [SPARK-43694] [SPARK-43695] [PS] Javítás
StringOps
a Spark Connecthez - [SPARK-43353] [SC-132734] [PYTHON] Fennmaradó munkamenethibák migrálása hibaosztályba
- [SPARK-43815] [SC-132781] [SQL] Alias hozzáadása
to_varchar
a következőhöz:to_char
- [SPARK-43543] [13.x] [SC-131839] [PYTHON] Beágyazott MapType-viselkedés javítása a Pandas UDF-ben
- [SPARK-43361] [SC-131789] [PROTOBUF] az enumerálással kapcsolatos hibák dokumentációjának frissítése
- [SPARK-43740] [SC-132035] [PYTHON] [CONNECT] Nem támogatott
session
metódusok elrejtése az automatikus kiegészítésből - [SPARK-43022] [SC-131681] [CONNECT] Protobuf-függvények támogatása Scala-ügyfélhez
- [SPARK-43304] [13.x] [SC-129969] [CONNECT] [PYTHON] Migrálás
NotImplementedError
aPySparkNotImplementedError
- [SPARK-43860] [SC-132713] [SQL] A tail-recursion engedélyezése, ahol csak lehetséges
- [SPARK-42421] [SC-132695] [CORE] A helyi ellenőrzőponton használt dinamikus foglalás kapcsolójának lekérése a utils használatával
- [SPARK-43590] [SC-132012] [CONNECT] Mima-ellenőrzés
connect-jvm-client-mima-check
támogatása a modullalprotobuf
- [SPARK-43315] [13.x] [CONNECT] [PYTHON] [SS] Fennmaradó hibák migrálása a DataFrame-ből (Olvasó|Író) hibaosztályba
- [SPARK-43361] [SC-130980] [PROTOBUF] spark-protobuf: a számmal rendelkező serde engedélyezése intsként
- [SPARK-43789] [SC-132397] [R] Alapértelmezés szerint a "spark.sql.execution.arrow.maxRecordsPerBatch" parancsot használja az R createDataFrame-ben a nyíllal
- [SPARK-43596] [SC-126994] [SQL] IsNull-predikátum kezelése a rewriteDomainJoins fájlban
- [SPARK-42249] [SC-122565] [SQL] Html-hivatkozás finomítása a hibaüzenetekben szereplő dokumentációhoz.
- [SPARK-43128] [SC-131628] [CONNECT] [SS] A natív Scala Api-val konzisztenssé tétele
recentProgress
éslastProgress
visszatéréseStreamingQueryProgress
- [SPARK-43387] [SC-130448] [SQL] Adjon meg egy olvasható hibakódot _LEGACY_ERROR_TEMP_1168.
- [SPARK-43334] [SC-132358] [Felhasználói felület] Hiba kijavítása a ExecutorPeakMetricsDistributions API-válaszba való szerializálása során
- [SPARK-42958] [SC-131475] [CONNECT] Újrabontás
connect-jvm-client-mima-check
a mima-ellenőrzés támogatásához az avro-modullal - [SPARK-43591] [SC-131977] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_0013 hibaosztályhoz
- [SPARK-38464] [SC-132211] [CORE] Hibaosztályok használata a org.apache.spark.io
- [SPARK-43759] [SC-132189] [SQL] [PYTHON] TimestampNTZType felfedés a pyspark.sql.types-ban
- [SPARK-43649] [SC-132036] [SPARK-43650] [SPARK-43651] [SQL] Nevek hozzárendelése a _LEGACY_ERROR_TEMP_240[1-3] hibaosztályhoz
- [SPARK-43719] [SC-132016] [WEBUI] Leíró
missing row.excludedInStages
mező - [SPARK-42956] [SC-127257] [CONNECT] Avro-függvények támogatása Scala-ügyfélhez
- [SPARK-43487] [SC-131975] [SQL] Beágyazott CTE-hibaüzenet javítása
- [SPARK-43265] [SC-129653] Hiba keretrendszer áthelyezése egy közös utils modulba
- [SPARK-40912] [SC-131547] [CORE] A KryoDeserializationStream kivételeinek többletterhelése
- [SPARK-43583] [SC-131976] [CORE] az MergedBlockedMetaReqHandler lekérése a meghatalmazotttól a SaslRpcHandler-példány helyett
- [SPARK-42996] [SC-131997] [CONNECT] [PS] [ML] Hozzon létre és rendeljen hozzá megfelelő JIRA-jegyeket az összes sikertelen teszthez.
- [SPARK-38469] [SC-131425] [CORE] Hibaosztály használata a org.apache.spark.network webhelyen
- [SPARK-43718] [SC-132014] [SQL] Null értékű helyes beállítás a USING illesztésekben lévő kulcsokhoz
- [SPARK-43502] [SC-131419] [PYTHON] [CONNECT]
DataFrame.drop
üres oszlopot kell elfogadnia - [SPARK-43743] [SC-132038] [SQL] HIVE-12188 port (A doA-k nem működnek megfelelően a nem kerberos által védett HS2-ben)
- [SPARK-43598] [SC-131929] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_2400 hibaosztályhoz
- [SPARK-43138] [SC-131031] [CORE] A ClassNotFoundException javítása a migrálás során
- [SPARK-43360] [SC-131526] [SS] [CONNECT] Scala-ügyfél StreamingQueryManager
- [SPARK-38467] [SC-131025] [CORE] Hibaosztályok használata a org.apache.spark.memory fájlban
- [SPARK-43345] [SC-131790] [SPARK-43346] [SQL] A hibaosztályok átnevezése LEGACY_ERROR_TEMP[0041|1206]
- [SPARK-42815] [SC-126450] [SQL] Subexpression elimination support shortcut expression
- [SPARK-38462] [SC-130449] [CORE] Hibaosztály hozzáadása INTERNAL_ERROR_EXECUTOR
- [SPARK-43589] [SC-131798] [SQL] Javítás
cannotBroadcastTableOverMaxTableBytesError
a használathozbytesToString
- [SPARK-43539] [SC-131830] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_0003 hibaosztályhoz
- [SPARK-43157] [SC-131688] [SQL] Klónozza az InMemoryRelation gyorsítótárazott tervét, hogy megakadályozza, hogy a klónozott terv ugyanarra az objektumra hivatkozzon
- [SPARK-43309] [SC-129746] [SPARK-38461] [CORE] INTERNAL_ERROR kiterjesztése kategóriákkal és hibaosztály hozzáadása INTERNAL_ERROR_BROADCAST
- [SPARK-43281] [SC-131370] [SQL] Az egyidejű író javítása nem frissíti a fájlmetrikákat
- [SPARK-43383] [SC-130660] [SQL] Statisztika hozzáadása
rowCount
a LocalRelation szolgáltatáshoz - [SPARK-43574] [SC-131739] [PYTHON] [SQL] Python-végrehajthatóság beállítása UDF-hez és pandas-függvény API-khoz futtatókörnyezetben a feldolgozókban
- [SPARK-43569] [SC-131694] [SQL] A HADOOP-14067 megkerülő megoldásának eltávolítása
- [SPARK-43183] [SC-128938] [SS] [13.x] Az "onQueryIdle" új visszahívásának bevezetése a StreamingQueryListenerbe
- [SPARK-43528] [SC-131531] [SQL] [PYTHON] Duplikált mezőnevek támogatása a createDataFrame-ben a pandas DataFrame használatával
- [SPARK-43548] [SC-131686] [SS] A HADOOP-16255 megkerülő megoldásának eltávolítása
- [SPARK-43494] [SC-131272] [CORE] Közvetlen hívás
replicate()
tükrözésHdfsDataOutputStreamBuilder
helyettSparkHadoopUtil#createFile
- [SPARK-43471] [SC-131063] [CORE] Hiányzó hadoopProperties és metricsProperties kezelése
- [SPARK-42899] [SC-126456] [SQL] A DataFrame.to(séma) kijavítása annak az esetnek a kezeléséhez, amelyben nem null értékű beágyazott mező található egy null értékű mezőben
- [SPARK-43302] [SC-129747] [SQL] Python UDAF létrehozása AggregateFunction-ként
- [SPARK-43223] [SC-131270] [Csatlakozás] Beírt agg, csökkentési függvények, RelationalGroupedDataset#as
- [SPARK-43482] [SC-131375] [SS] Bontsa ki a QueryTerminatedEvent elemet, hogy kivétel esetén tartalmazzon hibaosztályt
- [SPARK-43359] [SC-131463] [SQL] A Hive-táblából való törlésnek "UNSUPPORTED_FEATURE" kell lennie. TABLE_OPERATION"
- [SPARK-43284] [SC-130313] Visszaváltás URL-kódolt sztringekre
- [SPARK-43492] [SC-131227] [SQL] 3-args függvény aliasainak
DATE_ADD
ésDATE_DIFF
- [SPARK-43473] [SC-131372] [PYTHON] Támogatásstruktúratípus a createDataFrame-ben a pandas DataFrame-ből
- [SPARK-43386] [SC-131110] [SQL] Javasolt oszlop/attribútumok listájának javítása a hibaosztályban
UNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-43443] [SC-131332] [SQL] Teljesítménymutató hozzáadása időbélyeg típusú következtetéshez érvénytelen érték használata esetén
- [SPARK-43518] [SC-131420] [SQL] Konvertálás
_LEGACY_ERROR_TEMP_2029
INTERNAL_ERROR - [SPARK-42604] [SC-130648] [CONNECT] Functions.typedlit implementálása
- [SPARK-42323] [ES-669513] "[SC-123479][SQL] Név hozzárendelése a következőhöz
_LEGACY_ERROR_TEMP_2332
: " - [SPARK-43357] [SC-130649] [SQL] Dátumtípus szűrésének dátuma
- [SPARK-43410] [SC-130526] [SQL] A csomagolt skipValues vektorizált ciklusának javítása
- [SPARK-43441] [SC-130995] [CORE]
makeDotNode
nem hiúsul meg, ha a DeterministicLevel hiányzik - [SPARK-43324] [SC-130455] [SQL] Frissítési parancsok kezelése delta-alapú forrásokhoz
- [SPARK-43272] [SC-131168] [CORE] Közvetlen hívás
createFile
tükröződés helyett - [SPARK-43296] [13.x] [SC-130627] [CONNECT] [PYTHON] Spark Connect-munkamenet hibáinak migrálása hibaosztályba
- [SPARK-43405] [SC-130987] [SQL] Használhatatlan
getRowFormatSQL
eltávolítása ,outputRowFormatSQL
inputRowFormatSQL
metódus - [SPARK-43447] [SC-131017] [R] Támogatás R 4.3.0
- [SPARK-43425] [SC-130981] [SQL] Hozzáadás
TimestampNTZType
aColumnarBatchRow
- [SPARK-41532] [SC-130523] [CONNECT] [ÜGYFÉL] Több adatkeretet tartalmazó műveletek ellenőrzése
- [SPARK-43262] [SC-129270] [CONNECT] [SS] [PYTHON] Spark Connect strukturált streamelési hibák migrálása hibaosztályba
- [SPARK-42992] [13.x] [SC-129465] [PYTHON] A PySparkRuntimeError bemutatása
- [SPARK-43422] [SC-130982] [SQL] Címkék megőrzése a LogicalRelation szolgáltatásban metaadat-kimenettel
- [SPARK-43390] [SC-130646] [SQL] A DSv2 lehetővé teszi, hogy a CTAS/RTAS fenntartsa a séma nullságát
- [SPARK-43430] [SC-130989] [CONNECT] [PROTO] Az ExecutePlanRequest tetszőleges kérési beállításokat támogat.
- [SPARK-43313] [SC-130254] [SQL] Hiányzó oszlop ALAPÉRTELMEZETT értékeinek hozzáadása a MERGE INSERT műveletekhez
- [SPARK-42842] [SC-130438] [SQL] A _LEGACY_ERROR_TEMP_2006 hibaosztály egyesítése REGEX_GROUP_INDEX
- [SPARK-43377] [SC-130405] [SQL] Engedélyezés
spark.sql.thriftServer.interruptOnCancel
alapértelmezés szerint - [SPARK-43292] [SC-130525] [CORE] [CONNECT] Ugrás
ExecutorClassLoader
a modulracore
és egyszerűsítésExecutor#addReplClassLoaderIfNeeded
- [SPARK-43040] [SC-130310] [SQL] A TimestampNTZ-típus támogatásának javítása A JDBC-adatforrásban
- [SPARK-43343] [SC-130629] [SS] A FileStreamSource-nak le kell tiltania egy további fájl glob-ellenőrzést a DataSource létrehozásakor
- [SPARK-43312] [SC-130294] [PROTOBUF] Bármely mező JSON-ra konvertálásának lehetősége
- [SPARK-43404] [SC-130586] [SS] Hagyja ki az sst-fájl újbóli újrafelhasználását a RocksDB állapottároló ugyanazon verziójához az azonosítók eltérésének elkerülése érdekében
- [SPARK-43397] [SC-130614] [CORE] Napló-végrehajtó leszerelési időtartama a metódusban
executorLost
- [SPARK-42388] [SC-128568] [SQL] A parquet footer kétszeri olvasásának elkerülése vektoros olvasóban
- [SPARK-43306] [13.x] [SC-130320] [PYTHON] ValueError migrálása Spark SQL-típusokból hibaosztályba
- [SPARK-43337] [SC-130353] [Felhasználói felület] [3.4] A rendezési oszlop Asc/desc nyílikonjai nem jelennek meg a táblázat oszlopában
- [SPARK-43279] [SC-130351] [CORE] A nem használt tagok törlése a
SparkHadoopUtil
- [SPARK-43250] [SC-130147] [SQL] A hibaosztály
_LEGACY_ERROR_TEMP_2014
cseréje belső hibára - [SPARK-43363] [SC-130299] [SQL] [PYTHON] Csak akkor hívja
astype
meg a kategóriatípust, ha a nyíltípus nincs megadva - [SPARK-43261] [SC-130154] [PYTHON] Migrálás
TypeError
Spark SQL-típusokból hibaosztályba - [SPARK-41971] [SC-130230] [SQL] [PYTHON] Konfiguráció hozzáadása pandas-átalakításhoz a strukturálási típusok kezeléséhez
- [SPARK-43381] [SC-130464] [CONNECT] A "transformStatCov" lustavá tétele
- [SPARK-43362] [SC-130481] [SQL] A JSON-típus speciális kezelése a MySQL-összekötőhöz
- [SPARK-42843] [SC-130196] [SQL] Frissítse a _LEGACY_ERROR_TEMP_2007 hibaosztályt REGEX_GROUP_INDEX
- [SPARK-42585] [SC-129968] [CONNECT] Helyi kapcsolatok streamelése
- [SPARK-43181] [SC-130476] [SQL] Felhasználói felületi WebURL megjelenítése a rendszerhéjban
spark-sql
- [SPARK-43051] [SC-130194] [CONNECT] Alapértelmezett értékeket kibocsátó beállítás hozzáadása
- [SPARK-43204] [SC-129296] [SQL] A MERGE-hozzárendelések igazítása táblaattribútumokhoz
- [SPARK-43348] [SC-130082] [PYTHON] Támogatás
Python 3.8
a PyPy3-ban - [SPARK-42845] [SC-130078] [SQL] A _LEGACY_ERROR_TEMP_2010 hibaosztály frissítése InternalError-ra
- [SPARK-43211] [SC-128978] [HIVE] Hadoop2-támogatás eltávolítása az IsolatedClientLoaderben
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | fekete | 22.6.0 | fehérítő | 4.1.0 |
villogó | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
minősítés | 2022.9.14 | cffi | 1.15.1 | karakterkészlet | 4.0.0 |
charset-normalizer | 2.0.4 | kattintás | 8.0.4 | kriptográfia | 37.0.1 |
biciklista | 0.11.0 | Cython | 0.29.32 | databricks-sdk | 0.1.6 |
dbus-python | 1.2.18 | hibakeresés | 1.5.1 | lakberendező | 5.1.1 |
defusedxml | 0.7.1 | distlib | 0.3.6 | docstring-to-markdown | 0,12 |
belépési pontok | 0,4 | Végrehajtó | 1.2.0 | aspektusok áttekintése | 1.0.3 |
fastjsonschema | 2.16.3 | filelock | 3.12.0 | betűtípusok | 4.25.0 |
googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
httplib2 | 0.20.2 | idna | 3.3 | importlib-metadata | 4.6.4 |
ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | Jeepney | 0.7.1 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.16.0 | jupyter-client | 7.3.4 | jupyter_core | 4.11.2 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgetek | 1.0.0 | kulcstartó | 23.5.0 |
kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | mistune | 0.8.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
nodeenv | 1.8.0 | jegyzetfüzet | 6.4.12 | numpy | 1.21.5 |
oauthlib | 3.2.0 | csomagolás | 21,3 | pandas | 1.4.4 |
pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.9.0 |
Patsy | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Párna | 9.2.0 | mag | 22.2.2 | platformdirs | 2.5.2 |
ábrázolás | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pycparser | 2.21 | pydantic | 1.10.6 |
pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
pyright | 1.1.294 | pyrsistent | 0.18.0 | python-dateutil | 2.8.2 |
python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 |
pytz | 2022.1 | pyzmq | 23.2.0 | kérelmek | 2.28.1 |
kötél | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
scipy | 1.9.1 | tengeri | 0.11.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 63.4.1 | Hat | 1.16.0 |
levessieve | 2.3.1 | ssh-import-id | 5,11 | veremadatok | 0.6.2 |
statsmodels | 0.13.2 | Kitartás | 8.1.0 | terminado | 0.13.1 |
testpath | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
tomli | 2.0.1 | tornádó | 6.1 | árulók | 5.1.1 |
typing_extensions | 4.3.0 | ujson | 5.4.0 | felügyelet nélküli frissítések | 0,1 |
urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.2 |
kerék | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
zipp | 1.0.0 |
Telepített R-kódtárak
Az R-kódtárak a Microsoft CRAN 2023.02.10-i pillanatképéből vannak telepítve.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 10.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
backports | 1.4.1 | alap | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
indítás | 1.3-28 | főz | 1.0-8 | Brio | 1.1.3 |
seprű | 1.0.3 | bslib | 0.4.2 | gyorsítótár | 1.0.6 |
hívó | 3.7.3 | kalap | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | osztály | 7.3-21 | Cli | 3.6.0 |
clipr | 0.8.0 | óra | 0.6.1 | fürt | 2.1.4 |
kódtoolok | 0.2-19 | színtér | 2.1-0 | commonmark | 1.8.1 |
fordítóprogram | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
zsírkréta | 1.5.2 | hitelesítő adatok | 1.3.2 | csavarodik | 5.0.0 |
data.table | 1.14.6 | adatkészletek | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | emészt | 0.6.31 | levilágított | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
három pont | 0.3.2 | evaluate | 0.20 | fani | 1.0.4 |
farver | 2.1.1 | gyorstérkép | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | külföldi | 0.8-82 |
kovácsol | 0.2.0 | Fs | 1.6.1 | jövő | 1.31.0 |
future.apply | 1.10.0 | gargarizál | 1.3.0 | Generikus | 0.1.3 |
Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globális | 0.16.2 |
ragasztó | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.1 | grafika | 4.2.2 | grDevices | 4.2.2 |
rács | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | kikötő | 2.5.1 |
highr | 0.10 | Hms | 1.1.2 | htmltoolok | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
Azonosítók | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
izoband | 0.2.7 | iterátorok | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
címkézés | 0.4.2 | később | 1.3.0 | rács | 0.20-45 |
láva | 1.7.1 | életciklus | 1.0.3 | figyelő | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1,5 |
TÖMEG | 7.3-58.2 | Mátrix | 1.5-1 | memoise | 2.0.1 |
metódusok | 4.2.2 | mgcv | 1.8-41 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
párhuzamosan | 1.34.0 | pillér | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | rétegelt | 1.8.8 | dicséret | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | haladás | 1.2.2 |
progressr | 0.13.0 | Ígér | 1.2.0.1 | Proto | 1.0.0 |
helyettes | 0.4-27 | Ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
olvasó | 2.1.3 | readxl | 1.4.2 | receptek | 1.0.4 |
Visszavágót | 1.0.1 | visszavágó2 | 2.1.2 | Távirányító | 2.4.2 |
reprex | 2.0.2 | újraformázás2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.5 | mérleg | 1.2.1 |
választó | 0.4-2 | sessioninfo | 1.2.2 | alak | 1.4.6 |
Fényes | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | térbeli | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | NÉGYZET | 2021.1 | statisztika | 4.2.2 |
statisztikák4 | 4.2.2 | stringi | 1.7.12 | sztring | 1.5.0 |
túlélés | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | szövegformázás | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | eszközök | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
eszközök | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | Waldo | 0.4.0 |
bajusz | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | fütyülés | 2.2.2 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natívok |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natívok |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natívok |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natívok |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | Csellengő | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.7.0 |
io.dropwizard.metrics | metrikamag | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-zokni | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pác | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.29 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | nyílformátum | 11.0.0 |
org.apache.arrow | nyíl-memóriamag | 11.0.0 |
org.apache.arrow | nyíl-memória-netty | 11.0.0 |
org.apache.arrow | nyíl-vektor | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | borostyán | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | célközönség-széljegyzetek | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | móló-folytatás | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | móló plusz | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | Alátéteket | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-kompatibilis | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | három-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |