Databricks Runtime 12.1 (nem támogatott)
Az alábbi kibocsátási megjegyzések az Apache Spark 3.3.1 által működtetett Databricks Runtime 12.1-ről nyújtanak információkat.
A Databricks 2023 januárjában adta ki ezeket a képeket.
Új funkciók és fejlesztések
- Protokollkezeléshez támogatott Delta Lake-táblafunkciók
- A frissítések prediktív I/O-je nyilvános előzetes verzióban érhető el
- A Katalóguskezelő mostantól minden személy számára elérhető
- Több állapotalapú operátor támogatása egyetlen streamelési lekérdezésben
- A protokollpufferek támogatása nyilvános előzetes verzióban érhető el
- A Confluent-sémaregisztrációs adatbázis hitelesítésének támogatása
- A táblaelőzmények deltamegosztásokkal való megosztásának támogatása
- Streamelés támogatása Delta-megosztásokkal
- A katalógusokban lévő Delta-megosztási táblák esetében mostantól támogatott az időbélyeget használó táblaverzió
- HA NEM EGYEZIK A FORRÁSSAL a MERGE INTO funkció támogatása
- Optimalizált statisztikai gyűjtemény a DELTA-ra konvertáláshoz
- A Unity Catalog támogatása lefedő táblákhoz
Protokollkezeléshez támogatott Delta Lake-táblafunkciók
Az Azure Databricks bevezette a Delta Lake-táblafunkciók támogatását, amelyek részletes jelzőket vezetnek be, amelyek meghatározzák, hogy az adott tábla mely funkciókat támogatja. Lásd : Hogyan kezeli az Azure Databricks a Delta Lake-funkciók kompatibilitását?.
A frissítések prediktív I/O-je nyilvános előzetes verzióban érhető el
A prediktív I/O mostantól felgyorsítja DELETE
a UPDATE
MERGE
Delta-táblák műveleteit a Photon-kompatibilis számításon engedélyezett törlési vektorokkal. Lásd : Mi a prediktív I/O?.
A Katalóguskezelő mostantól minden személy számára elérhető
A Catalog Explorer mostantól minden Azure Databricks-személy számára elérhető a Databricks Runtime 7.3 LTS és újabb verziók használatakor.
Több állapotalapú operátor támogatása egyetlen streamelési lekérdezésben
A felhasználók mostantól összefűzési móddal láncra kapcsolhatják az állapotalapú operátorokat a streamelési lekérdezésben. Nem minden operátor támogatott teljes mértékben. Stream-stream időintervallum-illesztés, és flatMapGroupsWithState
nem engedélyezi más állapotalapú operátorok láncolt használatát.
A protokollpufferek támogatása nyilvános előzetes verzióban érhető el
Az és to_protobuf
a függvények from_protobuf
segítségével adatcserét végezhet bináris és strukturált típusok között. Lásd: Olvasási és írási protokollpufferek.
A Confluent-sémaregisztrációs adatbázis hitelesítésének támogatása
Az Azure Databricks és a Confluent Sémaregisztrációs adatbázis integrációja mostantól támogatja a külső sémaregisztrációs adatbázis-címeket hitelesítéssel. Ez a funkció a , to_avro
, from_protobuf
és to_protobuf
függvényekhez from_avro
érhető el. Lásd: Protobuf vagy Avro.
A táblaelőzmények deltamegosztásokkal való megosztásának támogatása
Mostantól teljes előzményekkel rendelkező táblázatokat oszthat meg a Delta Sharing használatával, így a címzettek időutazási lekérdezéseket hajthatnak végre, és lekérdezhetik a táblát a Spark Strukturált streamelés használatával. WITH HISTORY
helyett ajánlott CHANGE DATA FEED
, bár az utóbbi továbbra is támogatott. Lásd: ALTER SHARE and Add tables to a share.
Streamelés támogatása Delta-megosztásokkal
A Spark strukturált streamelés mostantól egy forrás deltamegosztási táblán lévő formátummal deltasharing
működik, amelyet megosztottak a használatával WITH HISTORY
.
A katalógusokban lévő Delta-megosztási táblák esetében mostantól támogatott az időbélyeget használó táblaverzió
Mostantól az SQL-szintaxissal TIMESTAMP AS OF
megadhatja a katalógusban SELECT
csatlakoztatott Delta Sharing-tábla verzióját. A táblákat meg kell osztani a következővel WITH HISTORY
: .
HA NEM EGYEZIK A FORRÁSSAL a MERGE INTO funkció támogatása
Most már hozzáadhat WHEN NOT MATCHED BY SOURCE
záradékokat a kiválasztott tábla azon sorainak frissítéséhez MERGE INTO
vagy törléséhez, amelyek nem rendelkeznek egyezésekkel a forrástáblában az egyesítési feltétel alapján. Az új záradék sql, Python, Scala és Java nyelven érhető el. Lásd: MERGE INTO.
Optimalizált statisztikai gyűjtemény a DELTA-ra konvertáláshoz
A művelet statisztikáinak CONVERT TO DELTA
gyűjtése most már sokkal gyorsabb. Ez csökkenti a hatékonyság érdekében használható NO STATISTICS
számítási feladatok számát.
A Unity Catalog támogatása lefedő táblákhoz
Ez a funkció kezdetben nyilvános előzetes verzióban jelent meg. 2023. október 25-én általánosan elérhető.
Az elvetett felügyelt vagy külső táblákat az elvetéstől számított hét napon belül leválaszthatja egy meglévő sémában. Lásd: UNDROP TABLE and SHOW TABLES DROPPED.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- filelock 3.8.0 és 3.8.2 között
- platformdirs 2.5.4 és 2.6.0 között
- setuptools 58.0.4-től 61.2.0-ra
- Frissített R-kódtárak:
- Frissített Java-kódtárak:
- io.delta.delta-sharing-spark_2.12 0.5.2 és 0.6.2 között
- org.apache.hive.hive-storage-api 2.7.2-től 2.8.1-esig
- org.apache.parquet.parquet-column from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-common from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.tukaani.xz 1,8 és 1,9 között
Apache Spark
A Databricks Runtime 12.1 tartalmazza az Apache Spark 3.3.1-et. Ez a kiadás tartalmazza a Databricks Runtime 12.0 (nem támogatott) összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-41405] [SC-119769] [12.1.0] "[SC-119411][SQL] Az oszlopfeloldási logika központosítása" és "[SC-117170][SPARK-41338][SQL] Külső hivatkozások és normál oszlopok feloldása ugyanabban az elemző kötegben"
- [SPARK-41405] [SC-119411] [SQL] Az oszlopfeloldási logika központosítása
- [SPARK-41859] [SC-119514] [SQL] A CreateHiveTableAsSelectCommand parancsnak megfelelően kell beállítania a felülírás jelzőt
- [SPARK-41659] [SC-119526] [CONNECT] [12.X] Dokumentumtesztek engedélyezése a pyspark.sql.connect.readwriter alkalmazásban
- [SPARK-41858] [SC-119427] [SQL] Az ORC-olvasó perf regressziója kijavítása az ALAPÉRTELMEZETT érték funkció miatt
- [SPARK-41807] [SC-119399] [CORE] Távolítsa el a nem létező hibaosztályt: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
- [SPARK-41578] [12.x] [SC-119273] [SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362] [SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373] [CONNECT] Nevek következtetése a SparkSession.createDataFrame szótárainak listájából
- [SPARK-40993] [SC-119504] [SPARK-41705] [CONNECT] [12.X] A Spark Csatlakozás dokumentációjának és szkriptének áthelyezése a dev/and Python dokumentációba
- [SPARK-41534] [SC-119456] [CONNECT] [SQL] [12.x] A Spark Csatlakozás kezdeti ügyfélmoduljának beállítása
- [SPARK-41365] [SC-118498] [Felhasználói felület] [3.3] A szakaszok felhasználói felületének lapja nem töltődik be proxyként adott yarn-környezetben
- [SPARK-41481] [SC-118150] [CORE] [SQL] Újrafelhasználás
INVALID_TYPED_LITERAL
ahelyett, hogy_LEGACY_ERROR_TEMP_0020
- [SPARK-41049] [SC-119305] [SQL] Állapotalapú kifejezéskezelés újbóli kezelése
- [SPARK-41726] [SC-119248] [SQL] Eltávolít
OptimizedCreateHiveTableAsSelectCommand
- [SPARK-41271] [SC-118648] [SC-118348] [SQL] Paraméteres SQL-lekérdezések támogatása a következővel:
sql()
- [SPARK-41066] [SC-119344] [CONNECT] [PYTHON] Implementálás
DataFrame.sampleBy
ésDataFrame.stat.sampleBy
- [SPARK-41407] [SC-119402] [SC-119012] [SQL] [MINDEN TESZT] V1-írás lekérése a WriteFilesba
- [SPARK-41565] [SC-118868] [SQL] A hibaosztály hozzáadása
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925] [SQL] A DECODE függvény hibás eredményt ad vissza a NULL érték átadásakor
- [SPARK-41554] [SC-119274] a decimális skálázás módosításának javítása, ha a skálázás m...
- [SPARK-41065] [SC-119324] [CONNECT] [PYTHON] Implementálás
DataFrame.freqItems
ésDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404] [SPARK-41745] [CONNECT] [12.X] Újravehető dokumentumtesztek, és hiányzó oszlop alias hozzáadása a darabszámhoz()
- [SPARK-41069] [SC-119310] [CONNECT] [PYTHON] Implementálás
DataFrame.approxQuantile
ésDataFrame.stat.approxQuantile
- [SPARK-41809] [SC-119367] [CONNECT] [PYTHON] Függvény
from_json
támogatása DataType-séma - [SPARK-41804] [SC-119382] [SQL] Az UDT-k tömbjének
InterpretedUnsafeProjection
megfelelő elemméret kiválasztása - [SPARK-41786] [SC-119308] [CONNECT] [PYTHON] Segédfüggvények deduplikálása
- [SPARK-41745] [SC-119378] [SPARK-41789] [12.X] Sorok támogatási listájának létrehozása
createDataFrame
- [SPARK-41344] [SC-119217] [SQL] Hiba egyértelműbbé tétele, ha a tábla nem található a SupportsCatalogOptions katalógusban
- [SPARK-41803] [SC-119380] [CONNECT] [PYTHON] Hiányzó függvény hozzáadása
log(arg1, arg2)
- [SPARK-41808] [SC-119356] [CONNECT] [PYTHON] JSON-függvények támogatási beállításainak megadása
- [SPARK-41779] [SC-119275] [SPARK-41771] [CONNECT] [PYTHON] Támogatási szűrő létrehozása
__getitem__
és kiválasztása - [SPARK-41783] [SC-119288] [SPARK-41770] [CONNECT] [PYTHON] Oszlopoptikák támogatása Nincs
- [SPARK-41440] [SC-119279] [CONNECT] [PYTHON] Kerülje az általános minta gyorsítótár-operátorát.
- [SPARK-41785] [SC-119290] [CONNECT] [PYTHON] Végrehajtása
GroupedData.mean
- [SPARK-41629] [SC-119276] [CONNECT] Protokollkiterjesztések támogatása a relációban és a kifejezésben
- [SPARK-41417] [SC-118000] [CORE] [SQL] Átnevezés
_LEGACY_ERROR_TEMP_0019
:INVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342] [CONNECT] [12.X] A Spark Csatlakozás-kiszolgáló/ -ügyfél megfelelő hibakezelése
- [SPARK-41292] [SC-119357] [CONNECT] [12.X] Támogatási ablak a pyspark.sql.window névtérben
- [SPARK-41493] [SC-119339] [CONNECT] [PYTHON] Csv-függvények támogatási beállításainak megadása
- [SPARK-39591] [SC-118675] [SS] Aszinkron folyamatkövetés
- [SPARK-41767] [SC-119337] [CONNECT] [PYTHON] [12.X] Végrehajtása
Column.{withField, dropFields}
- [SPARK-41068] [SC-119268] [CONNECT] [PYTHON] Végrehajtása
DataFrame.stat.corr
- [SPARK-41655] [SC-119323] [CONNECT] [12.X] Dokumentumtesztek engedélyezése a pyspark.sql.connect.column fájlban
- [SPARK-41738] [SC-119170] [CONNECT] A ClientId keverése a SparkSession cache-ben
- [SPARK-41354] [SC-119194] [CONNECT] Hozzáadás
RepartitionByExpression
a proto-hoz - [SPARK-41784] [SC-119289] [CONNECT] [PYTHON] Hiányzó
__rmod__
hozzáadása oszlopban - [SPARK-41778] [SC-119262] [SQL] Alias "csökkentés" hozzáadása a ArrayAggregate-hez
- [SPARK-41067] [SC-119171] [CONNECT] [PYTHON] Végrehajtása
DataFrame.stat.cov
- [SPARK-41764] [SC-119216] [CONNECT] [PYTHON] A belső sztring műveleti nevének konzisztenssé tétele a FunctionRegistryvel
- [SPARK-41734] [SC-119160] [CONNECT] Szülőüzenet hozzáadása a katalógushoz
- [SPARK-41742] [SC-119263] Támogatás: df.groupBy().agg({"*":"count"})
- [SPARK-41761] [SC-119213] [CONNECT] [PYTHON] Aritmetikai műveletek javítása:
__neg__
, ,__pow__
__rpow__
- [SPARK-41062] [SC-118182] [SQL] Átnevezés
UNSUPPORTED_CORRELATED_REFERENCE
:CORRELATED_REFERENCE
- [SPARK-41751] [SC-119211] [CONNECT] [PYTHON] Erősít
Column.{isNull, isNotNull, eqNullSafe}
- [SPARK-41728] [SC-119164] [CONNECT] [PYTHON] [12.X] Függvény implementálása
unwrap_udt
- [SPARK-41333] [SC-119195] [SPARK-41737] Végrehajtása
GroupedData.{min, max, avg, sum}
- [SPARK-41751] [SC-119206] [CONNECT] [PYTHON] Erősít
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081] [SQL] Implicit oldaloszlop-aliasfeloldás támogatása összesítéskor
- [SPARK-41529] [SC-119207] [CONNECT] [12.X] SparkSession.stop implementálása
- [SPARK-41729] [SC-119205] [CORE] [SQL] [12.X] Átnevezés
_LEGACY_ERROR_TEMP_0011
:UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [SPARK-41717] [SC-119078] [CONNECT] [12.X] Nyomtatás és repr_html deduplikálása a LogicalPlanban
- [SPARK-41740] [SC-119169] [CONNECT] [PYTHON] Végrehajtása
Column.name
- [SPARK-41733] [SC-119163] [SQL] [SS] Famintás alapú metszés alkalmazása a ResolveWindowTime szabályhoz
- [SPARK-41732] [SC-119157] [SQL] [SS] Famintás alapú metszés alkalmazása a SessionWindowing szabályhoz
- [SPARK-41498] [SC-119018] Metaadatok propagálása az Unionon keresztül
- [SPARK-41731] [SC-119166] [CONNECT] [PYTHON] [12.X] Az oszlop tartozékának implementálása
- [SPARK-41736] [SC-119161] [CONNECT] [PYTHON]
pyspark_types_to_proto_types
támogatjaArrayType
- [SPARK-41473] [SC-119092] [CONNECT] [PYTHON] Függvény implementálása
format_number
- [SPARK-41707] [SC-119141] [CONNECT] [12.X] Catalog API implementálása a Spark Csatlakozás
- [SPARK-41710] [SC-119062] [CONNECT] [PYTHON] Végrehajtása
Column.between
- [SPARK-41235] [SC-119088] [SQL] [PYTHON] Magas szintű függvény: array_compact implementáció
- [SPARK-41518] [SC-118453] [SQL] Név hozzárendelése a hibaosztályhoz
_LEGACY_ERROR_TEMP_2422
- [SPARK-41723] [SC-119091] [CONNECT] [PYTHON] Függvény implementálása
sequence
- [SPARK-41703] [SC-119060] [CONNECT] [PYTHON] NullType és typed_null egyesítése literálban
- [SPARK-41722] [SC-119090] [CONNECT] [PYTHON] 3 hiányzó időablak-függvény implementálása
- [SPARK-41503] [SC-119043] [CONNECT] [PYTHON] Partícióátalakítási függvények implementálása
- [SPARK-41413] [SC-118968] [SQL] Ha a partíciókulcsok nem egyeznek, kerülje a tárolóparticionált illesztés mellőzését, de az illesztési kifejezések kompatibilisek
- [SPARK-41700] [SC-119046] [CONNECT] [PYTHON] Eltávolít
FunctionBuilder
- [SPARK-41706] [SC-119094] [CONNECT] [PYTHON]
pyspark_types_to_proto_types
támogatjaMapType
- [SPARK-41702] [SC-119049] [CONNECT] [PYTHON] Érvénytelen oszlopoptikák hozzáadása
- [SPARK-41660] [SC-118866] [SQL] Csak akkor propagálja a metaadatoszlopokat, ha használják őket
- [SPARK-41637] [SC-119003] [SQL] SORREND AZ ÖSSZES SZERINT
- [SPARK-41513] [SC-118945] [SQL] Gyűjtő implementálása a mapper-sorok számának metrikáinak gyűjtéséhez
- [SPARK-41647] [SC-119064] [CONNECT] [12.X] Docstrings deduplikálása a pyspark.sql.connect.functions alkalmazásban
- [SPARK-41701] [SC-119048] [CONNECT] [PYTHON] Oszlopoptikák támogatásának létrehozása
decimal
- [SPARK-41383] [SC-119015] [SPARK-41692] [SPARK-41693] Implementálás
rollup
éscube
pivot
- [SPARK-41635] [SC-118944] [SQL] CSOPORTOSÍTÁS AZ ÖSSZES SZERINT
- [SPARK-41645] [SC-119057] [CONNECT] [12.X] Dokumentumszkenzációk deduplikálása a pyspark.sql.connect.dataframe-ben
- [SPARK-41688] [SC-118951] [CONNECT] [PYTHON] Kifejezések áthelyezése expressions.py
- [SPARK-41687] [SC-118949] [CONNECT] Dokumentumszkuplikációk deduplikálása a pyspark.sql.connect.group fájlban
- [SPARK-41649] [SC-118950] [CONNECT] Dokumentumszkuplikációk deduplikálása a pyspark.sql.connect.window fájlban
- [SPARK-41681] [SC-118939] [CONNECT] Factor GroupedData ki a group.py
- [SPARK-41292] [SC-119038] [SPARK-41640] [SPARK-41641] [CONNECT] [PYTHON] [12.X] Függvények implementálása
Window
- [SPARK-41675] [SC-119031] [SC-118934] [CONNECT] [PYTHON] [12.X] Oszlopoptikák támogatása
datetime
- [SPARK-41672] [SC-118929] [CONNECT] [PYTHON] Az elavult függvények engedélyezése
- [SPARK-41673] [SC-118932] [CONNECT] [PYTHON] Végrehajtása
Column.astype
- [SPARK-41364] [SC-118865] [CONNECT] [PYTHON] Függvény implementálása
broadcast
- [SPARK-41648] [SC-118914] [CONNECT] [12.X] Dokumentumok deduplikálása a pyspark.sql.connect.readwriter fájlban
- [SPARK-41646] [SC-118915] [CONNECT] [12.X] Dokumentumszkuplikációk deduplikálása a pyspark.sql.connect.session alkalmazásban
- [SPARK-41643] [SC-118862] [CONNECT] [12.X] Dokumentumszűrések deduplikálása a pyspark.sql.connect.column fájlban
- [SPARK-41663] [SC-118936] [CONNECT] [PYTHON] [12.X] A Lambda többi függvényének implementálása
- [SPARK-41441] [SC-118557] [SQL] Támogatás létrehozása külső hivatkozások üzemeltetéséhez szükséges gyermekkimenet nélkül
- [SPARK-41669] [SC-118923] [SQL] Korai metszés a canCollapseExpressions-ban
- [SPARK-41639] [SC-118927] [SQL] [PROTOBUF] : Scala Önkifejezés ionLock eltávolítása a SchemaConvertersből
- [SPARK-41464] [SC-118861] [CONNECT] [PYTHON] Végrehajtása
DataFrame.to
- [SPARK-41434] [SC-118857] [CONNECT] [PYTHON] Kezdeti
LambdaFunction
megvalósítás - [SPARK-41539] [SC-118802] [SQL] A LogikaiRDD logikai tervében szereplő kimenet statisztikáinak és kényszereinek újraképe
- [SPARK-41396] [SC-118786] [SQL] [PROTOBUF] OneOf mező támogatása és rekurziós ellenőrzések
- [SPARK-41528] [SC-118769] [CONNECT] [12.X] A Spark Csatlakozás és a PySpark API névterének egyesítése
- [SPARK-41568] [SC-118715] [SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_1236
- [SPARK-41440] [SC-118788] [CONNECT] [PYTHON] Végrehajtása
DataFrame.randomSplit
- [SPARK-41583] [SC-118718] [SC-118642] [CONNECT] [PROTOBUF] Spark Csatlakozás és protobuf hozzáadása a setup.py függőségek megadásával
- [SPARK-27561] [SC-101081] [12.x] [SQL] Implicit oldaloszlop-aliasfeloldás támogatása a Projectben
- [SPARK-41535] [SC-118645] [SQL] A null érték helyes beállítása a naptárintervallum mezőihez a
InterpretedUnsafeProjection
InterpretedMutableProjection
- [SPARK-40687] [SC-118439] [SQL] A beépített "maszk" függvény adatmaszkolásának támogatása
- [SPARK-41520] [SC-118440] [SQL] AND_OR TreePattern felosztása az AND és OR TreePattern elválasztásához
- [SPARK-41349] [SC-118668] [CONNECT] [PYTHON] DataFrame.hint implementálása
- [SPARK-41546] [SC-118541] [CONNECT] [PYTHON]
pyspark_types_to_proto_types
támogatnia kell a StructType-t. - [SPARK-41334] [SC-118549] [CONNECT] [PYTHON] Proto áthelyezése
SortOrder
kapcsolatokról kifejezésekre - [SPARK-41387] [SC-118450] [SS] A Trigger.AvailableNow Kafka-adatforrásának aktuális végeltolásának érvényesítése
- [SPARK-41508] [SC-118445] [CORE] [SQL] Átnevezés
_LEGACY_ERROR_TEMP_1180
ésUNEXPECTED_INPUT_TYPE
eltávolítás_LEGACY_ERROR_TEMP_1179
- [SPARK-41319] [SC-118441] [CONNECT] [PYTHON] Oszlop implementálása. {when, otherwise} és function
when
withUnresolvedFunction
- [SPARK-41541] [SC-118460] [SQL] Hibás gyermekmetódus hívásának javítása az SQLShuffleWriteMetricsReporter.decRecordsWritten() alkalmazásban
- [SPARK-41453] [SC-118458] [CONNECT] [PYTHON] Végrehajtása
DataFrame.subtract
- [SPARK-41248] [SC-118436] [SC-118303] [SQL] A "spark.sql.json.enablePartialResults" hozzáadása a JSON részleges eredményeinek engedélyezéséhez vagy letiltásához
- [SPARK-41437] "[SC-117601][SQL] Ne optimalizálja kétszer az inputqueryt az 1. v. írási tartalékhoz"
- [SPARK-41472] [SC-118352] [CONNECT] [PYTHON] A többi sztring-/bináris függvény implementálása
- [SPARK-41526] [SC-118355] [CONNECT] [PYTHON] Végrehajtása
Column.isin
- [SPARK-32170] [SC-118384] [CORE] Javítsa a spekulációt a fázisfeladat-metrikákon keresztül.
- [SPARK-41524] [SC-118399] [SS] Az SQLConf és az extraOptions megkülönböztetése a StateStoreConfban a RocksDBConf-ban való használathoz
- [SPARK-41465] [SC-118381] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_1235 hibaosztályhoz
- [SPARK-41511] [SC-118365] [SQL] A LongToUnsafeRowMap támogatása figyelmen kívül hagyja aDuplicatedKey parancsot
- [SPARK-41409] [SC-118302] [CORE] [SQL] Átnevezés
_LEGACY_ERROR_TEMP_1043
:WRONG_NUM_ARGS.WITHOUT_SUGGESTION
- [SPARK-41438] [SC-118344] [CONNECT] [PYTHON] Végrehajtása
DataFrame.colRegex
- [SPARK-41437] [SC-117601] [SQL] Ne optimalizálja kétszer a bemeneti lekérdezést az 1- es v1-es írási tartalékhoz
- [SPARK-41314] [SC-117172] [SQL] Név hozzárendelése a hibaosztályhoz
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_1061 hibaosztályhoz
- [SPARK-41506] [SC-118241] [CONNECT] [PYTHON] A LiteralExpression újrabontása a DataType támogatásához
- [SPARK-41448] [SC-118046] Konzisztens MR-feladatazonosítók létrehozása a FileBatchWriter és a FileFormatWriter alkalmazásban
- [SPARK-41456] [SC-117970] [SQL] A try_cast teljesítményének javítása
- [SPARK-41495] [SC-118125] [CONNECT] [PYTHON] Függvények implementálása
collection
: P~Z - [SPARK-41478] [SC-118167] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_1234 hibaosztályhoz
- [SPARK-41406] [SC-118161] [SQL] A hibaüzenet újrabontása
NUM_COLUMNS_MISMATCH
általánosabbá tétele érdekében - [SPARK-41404] [SC-118016] [SQL] A teszt primitívebb dataType-ra való
ColumnarBatchSuite#testRandomRows
újrabontásaColumnVectorUtils#toBatch
- [SPARK-41468] [SC-118044] [SQL] A PlanExpression kezelésének javítása a EquivalentExpressionsben
- [SPARK-40775] [SC-118045] [SQL] A V2-fájlvizsgálatok ismétlődő leírási bejegyzéseinek javítása
- [SPARK-41492] [SC-118042] [CONNECT] [PYTHON] MISC-függvények implementálása
- [SPARK-41459] [SC-118005] [SQL] A kiszolgáló műveleti naplójának kimenetének javítása üres
- [SPARK-41395] [SC-117899] [SQL]
InterpretedMutableProjection
setDecimal
null értékeket kell megadnia a nem biztonságos sorokban lévő tizedesjegyekhez - [SPARK-41376] [SC-117840] [CORE] [3.3] Javítsa ki a Netty preferDirectBufs ellenőrzési logikáját a végrehajtó indításakor
- [SPARK-41484] [SC-118159] [SC-118036] [CONNECT] [PYTHON] [12.x] Függvények implementálása
collection
: E~M - [SPARK-41389] [SC-117426] [CORE] [SQL] Újrafelhasználás
WRONG_NUM_ARGS
ahelyett, hogy_LEGACY_ERROR_TEMP_1044
- [SPARK-41462] [SC-117920] [SQL] A dátum- és időbélyeg-típus a TimestampNTZ-hez is beállítható
- [SPARK-41435] [SC-117810] [SQL] Váltás a hívásra
invalidFunctionArgumentsError
curdate()
, haexpressions
nem üres - [SPARK-41187] [SC-118030] [CORE] LiveExecutor MemoryLeak az AppStatusListenerben, amikor a ExecutorLost történik
- [SPARK-41360] [SC-118083] [CORE] Kerülje a BlockManager újbóli regisztrációt, ha a végrehajtó elveszett
- [SPARK-41378] [SC-117686] [SQL] Oszlopstatisztikák támogatása a DS v2-ben
- [SPARK-41402] [SC-117910] [SQL] [CONNECT] [12.X] A StringDecode prettyName felülbírálása
- [SPARK-41414] [SC-118041] [CONNECT] [PYTHON] [12.x] Dátum-/időbélyegző függvények implementálása
- [SPARK-41329] [SC-117975] [CONNECT] Körkörös importálások feloldása a Spark Csatlakozás
- [SPARK-41477] [SC-118025] [CONNECT] [PYTHON] Konstans egész számok adattípusának helyes következtetése
- [SPARK-41446] [SC-118024] [CONNECT] [PYTHON] [12.x] Támogatási séma és további bemeneti adathalmaz-típusok létrehozása
createDataFrame
- [SPARK-41475] [SC-117997] [CONNECT] Lint-scala parancshiba és elírás javítása
- [SPARK-38277] [SC-117799] [SS] Írási köteg törlése a RocksDB állapottároló véglegesítése után
- [SPARK-41375] [SC-117801] [SS] Kerülje a legújabb KafkaSourceOffset kiürítését
- [SPARK-41412] [SC-118015] [CONNECT] Végrehajtása
Column.cast
- [SPARK-41439] [SC-117893] [CONNECT] [PYTHON] Implementálás
DataFrame.melt
ésDataFrame.unpivot
- [SPARK-41399] [SC-118007] [SC-117474] [CONNECT] Oszlophoz kapcsolódó tesztek újrabontása test_connect_column
- [SPARK-41351] [SC-117957] [SC-117412] [CONNECT] [12.x] Az oszlopnak támogatnia kell a != operátort
- [SPARK-40697] [SC-117806] [SC-112787] [SQL] Írásvédett karakterpárna hozzáadása külső adatfájlok lefedéséhez
- [SPARK-41349] [SC-117594] [CONNECT] [12.X] DataFrame.hint implementálása
- [SPARK-41338] [SC-117170] [SQL] Külső hivatkozások és normál oszlopok feloldása ugyanabban az elemző kötegben
- [SPARK-41436] [SC-117805] [CONNECT] [PYTHON] Függvények implementálása
collection
: A~C - [SPARK-41445] [SC-117802] [CONNECT] DataFrameReader.parquet implementálása
- [SPARK-41452] [SC-117865] [SQL]
to_char
null értéket kell visszaadnia, ha a formátum null - [SPARK-41444] [SC-117796] [CONNECT] A read.json() támogatása
- [SPARK-41398] [SC-117508] [SQL] A tárolóparticionált csatlakozásra vonatkozó korlátozások enyhítése, ha a futtatókörnyezet szűrése után a partíciókulcsok nem egyeznek
- [SPARK-41228] [SC-117169] [SQL] Átnevezés és fejlesztés hibaüzenet a következőhöz
COLUMN_NOT_IN_GROUP_BY_CLAUSE
: . - [SPARK-41381] [SC-117593] [CONNECT] [PYTHON] Implementálás
count_distinct
éssum_distinct
függvények - [SPARK-41433] [SC-117596] [CONNECT] A Maximális nyíl batchSize konfigurálása
- [SPARK-41397] [SC-117590] [CONNECT] [PYTHON] Sztring/bináris függvények egy részének implementálása
- [SPARK-41382] [SC-117588] [CONNECT] [PYTHON] Függvény implementálása
product
- [SPARK-41403] [SC-117595] [CONNECT] [PYTHON] Végrehajtása
DataFrame.describe
- [SPARK-41366] [SC-117580] [CONNECT] A DF.groupby.agg() kompatibilisnek kell lennie
- [SPARK-41369] [SC-117584] [CONNECT] A kiszolgálók árnyékolt jar-jának gyakori csatlakoztatásának hozzáadása
- [SPARK-41411] [SC-117562] [SS] Többállapotú operátor vízjel-támogatási hibajavítása
- [SPARK-41176] [SC-116630] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_1042 hibaosztályhoz
- [SPARK-41380] [SC-117476] [CONNECT] [PYTHON] [12.X] Összesítő függvények implementálása
- [SPARK-41363] [SC-117470] [CONNECT] [PYTHON] [12.X] Normál függvények implementálása
- [SPARK-41305] [SC-117411] [CONNECT] A Command proto dokumentációjának fejlesztése
- [SPARK-41372] [SC-117427] [CONNECT] [PYTHON] DataFrame TempView implementálása
- [SPARK-41379] [SC-117420] [SS] [PYTHON] Klónozott spark-munkamenet biztosítása a DataFrame-ben a ForeachBatch fogadó felhasználói függvényében a PySparkban
- [SPARK-41373] [SC-117405] [SQL] [HIBA] CAST_WITH_FUN_SUGGESTION átnevezése CAST_WITH_FUNC_SUGGESTION
- [SPARK-41358] [SC-117417] [SQL] Újrabontási
ColumnVectorUtils#populate
módszer használataPhysicalDataType
ahelyett, hogyDataType
- [SPARK-41355] [SC-117423] [SQL] Megkerülő megoldás: a hive táblanév-érvényesítési hibája
- [SPARK-41390] [SC-117429] [SQL] A függvény létrehozásához
register
használt szkript frissítése a következőben:UDFRegistration
- [SPARK-41206] [SC-117233] [SC-116381] [SQL] Nevezze át a hibaosztályt
_LEGACY_ERROR_TEMP_1233
a következőre:COLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310] [CONNECT] [PYTHON] [12.X] Matematikai függvények implementálása
- [SPARK-40970] [SC-117308] [CONNECT] [PYTHON] Támogatási lista[oszlop] a Join argumentumhoz
- [SPARK-41345] [SC-117178] [CONNECT] Tipp hozzáadása Csatlakozás Proto-hoz
- [SPARK-41226] [SC-117194] [SQL] [12.x] Spark-típusok újrabontása fizikai típusok bevezetésével
- [SPARK-41317] [SC-116902] [CONNECT] [PYTHON] [12.X] Alapszintű támogatás hozzáadása a DataFrameWriterhez
- [SPARK-41347] [SC-117173] [CONNECT] Cast hozzáadása az Expression proto-hoz
- [SPARK-41323] [SC-117128] [SQL] Támogatási current_schema
- [SPARK-41339] [SC-117171] [SQL] Zárja be és hozza létre újra a RocksDB írási köteget a törlés helyett
- [SPARK-41227] [SC-117165] [CONNECT] [PYTHON] DataFrame keresztcsatlakozás implementálása
- [SPARK-41346] [SC-117176] [CONNECT] [PYTHON] Implementálás
asc
ésdesc
függvények - [SPARK-41343] [SC-117166] [CONNECT] FunctionName-elemzés áthelyezése kiszolgálóoldalra
- [SPARK-41321] [SC-117163] [CONNECT] Támogatási célmező az UnresolvedStarhoz
- [SPARK-41237] [SC-117167] [SQL] A hibaosztály
UNSUPPORTED_DATATYPE
újbóli használata a következőhöz:_LEGACY_ERROR_TEMP_0030
- [SPARK-41309] [SC-116916] [SQL] Újrafelhasználás
INVALID_SCHEMA.NON_STRING_LITERAL
ahelyett, hogy_LEGACY_ERROR_TEMP_1093
- [SPARK-41276] [SC-117136] [SQL] [ML] [MLLIB] [PROTOBUF] [PYTHON] [R] [SS] [AVRO] Konstruktorok használatának optimalizálása
StructType
- [SPARK-41335] [SC-117135] [CONNECT] [PYTHON] Az IsNull és az IsNotNull támogatása oszlopban
- [SPARK-41332] [SC-117131] [CONNECT] [PYTHON] Javítás a következőben
nullOrdering
:SortOrder
- [SPARK-41325] [SC-117132] [CONNECT] [12.X] A GroupBy hiányzó avg() javítása a DF-en
- [SPARK-41327] [SC-117137] [CORE] Javítás
SparkStatusTracker.getExecutorInfos
a Be/OffHeapStorageMemory kapcsolóval - [SPARK-41315] [SC-117129] [CONNECT] [PYTHON] Implementálás
DataFrame.replace
ésDataFrame.na.replace
- [SPARK-41328] [SC-117125] [CONNECT] [PYTHON] Logikai és sztring API hozzáadása oszlophoz
- [SPARK-41331] [SC-117127] [CONNECT] [PYTHON] Hozzáadás
orderBy
ésdrop_duplicates
- [SPARK-40987] [SC-117124] [CORE]
BlockManager#removeBlockInternal
meg kell győződnie arról, hogy a zárolást kecsesen feloldották - [SPARK-41268] [SC-117102] [SC-116970] [CONNECT] [PYTHON] "Oszlop" újrabontása az API-kompatibilitáshoz
- [SPARK-41312] [SC-116881] [CONNECT] [PYTHON] [12.X] DataFrame.withColumnRenamed implementálása
- [SPARK-41221] [SC-116607] [SQL] A hibaosztály hozzáadása
INVALID_FORMAT
- [SPARK-41272] [SC-116742] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_2019 hibaosztályhoz
- [SPARK-41180] [SC-116760] [SQL] Újrafelhasználás
INVALID_SCHEMA
ahelyett, hogy_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880] [PYTHON] [SS] [12.X] NumPy-példányok pythonos primitív típusokba való leadása a GroupState-frissítésben
- [SPARK-41174] [SC-116609] [CORE] [SQL] Hibaosztály propagálása a felhasználóknak érvénytelen
format
to_binary()
- [SPARK-41264] [SC-116971] [CONNECT] [PYTHON] Több adattípus támogatása a Literálban
- [SPARK-41326] [SC-116972] [CONNECT] Hiányzik a deduplikátum javítása
- [SPARK-41316] [SC-116900] [SQL] A tail-recursion engedélyezése, ahol csak lehetséges
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Sztringkifejezések támogatása a szűrőben.
- [SPARK-41256] [SC-116932] [SC-116883] [CONNECT] DataFrame.withColumn(ok) implementálása
- [SPARK-41182] [SC-116632] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_1102 hibaosztályhoz
- [SPARK-41181] [SC-116680] [SQL] A leképezési beállítások hibáinak migrálása hibaosztályokra
- [SPARK-40940] [SC-115993] [12.x] A streamelési lekérdezések többállapotú operátor-ellenőrzőinek eltávolítása.
- [SPARK-41310] [SC-116885] [CONNECT] [PYTHON] DataFrame.toDF implementálása
- [SPARK-41179] [SC-116631] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_1092 hibaosztályhoz
- [SPARK-41003] [SC-116741] [SQL] A BHJ LeftAnti nem frissíti a numOutputRows függvényt, ha a kodek le van tiltva
- [SPARK-41148] [SC-116878] [CONNECT] [PYTHON] Implementálás
DataFrame.dropna
ésDataFrame.na.drop
- [SPARK-41217] [SC-116380] [SQL] A hibaosztály hozzáadása
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875] [CONNECT] [PYTHON] A DataFrame.count() javítása
- [SPARK-41301] [SC-116786] [CONNECT] A SparkSession.range() homogenizálási viselkedése
- [SPARK-41306] [SC-116860] [CONNECT] A Csatlakozás Expression proto dokumentációja
- [SPARK-41280] [SC-116733] [CONNECT] DataFrame.tail implementálása
- [SPARK-41300] [SC-116751] [CONNECT] A séma leválasztása sémaként van értelmezve
- [SPARK-41255] [SC-116730] [SC-116695] [CONNECT] RemoteSparkSession átnevezése
- [SPARK-41250] [SC-116788] [SC-116633] [CONNECT] [PYTHON] DataFrame. a toPandas nem ad vissza opcionális pandas-adatkeretet
- [SPARK-41291] [SC-116738] [CONNECT] [PYTHON]
DataFrame.explain
nyomtatnia kell, és nemet kell visszaadnia - [SPARK-41278] [SC-116732] [CONNECT] A nem használt QualifiedAttribute törlése a Expression.proto-ban
- [SPARK-41097] [SC-116653] [CORE] [SQL] [SS] [PROTOBUF] Redundáns gyűjteménykonvertálási alap eltávolítása a Scala 2.13-kódon
- [SPARK-41261] [SC-116718] [PYTHON] [SS] Kijavítottuk az applyInPandasWithState hibát, ha a csoportosítási kulcsok oszlopai nem a legkorábbi sorrendbe vannak helyezve
- [SPARK-40872] [SC-116717] [3.3] Visszalépés az eredeti shuffle blokkra, ha egy leküldéses egyesített shuffle-adattömb nulla méretű
- [SPARK-41114] [SC-116628] [CONNECT] Helyi adatok támogatása a LocalRelation szolgáltatáshoz
- [SPARK-41216] [SC-116678] [CONNECT] [PYTHON] Végrehajtása
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670] [CONNECT] [PYTHON] További beépített adattípusok támogatása
- [SPARK-41230] [SC-116674] [CONNECT] [PYTHON] Eltávolítás
str
az összesítő kifejezéstípusból - [SPARK-41224] [SC-116652] [SPARK-41165] [SPARK-41184] [CONNECT] Optimalizált nyílalapú adatgyűjtési implementáció a kiszolgálóról az ügyfélre való streameléshez
- [SPARK-41222] [SC-116625] [CONNECT] [PYTHON] A gépelési definíciók egyesítése
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Tiltsa le a nem támogatott függvényeket.
- [SPARK-41201] [SC-116526] [CONNECT] [PYTHON] Implementálás
DataFrame.SelectExpr
Python-ügyfélben - [SPARK-41203] [SC-116258] [CONNECT] A Dataframe.tansform támogatása a Python-ügyfélben.
- [SPARK-41213] [SC-116375] [CONNECT] [PYTHON] Implementálás
DataFrame.__repr__
ésDataFrame.dtypes
- [SPARK-41169] [SC-116378] [CONNECT] [PYTHON] Végrehajtása
DataFrame.drop
- [SPARK-41172] [SC-116245] [SQL] A nem egyértelmű ref hiba migrálása hibaosztályba
- [SPARK-41122] [SC-116141] [CONNECT] Az API magyarázata különböző módokat támogat
- [SPARK-41209] [SC-116584] [SC-116376] [PYTHON] A PySpark-típus következtetésének javítása _merge_type metódusban
- [SPARK-41196] [SC-116555] [SC-116179] [CONNECT] Homogenizálja a protobuf verziót a Spark connect-kiszolgálón, hogy ugyanazt a főverziót használja.
- [SPARK-35531] [SC-116409] [SQL] Hive-tábla statisztikáinak frissítése szükségtelen átalakítás nélkül
- [SPARK-41154] [SC-116289] [SQL] Helytelen relációs gyorsítótárazás időutazási specifikációval rendelkező lekérdezésekhez
- [SPARK-41212] [SC-116554] [SC-116389] [CONNECT] [PYTHON] Végrehajtása
DataFrame.isEmpty
- [SPARK-41135] [SC-116400] [SQL] Átnevezés
UNSUPPORTED_EMPTY_LOCATION
:INVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265] [SQL] Bővítmény API hozzáadása a gyorsítótárazás tervezésének normalizálásához
- [SPARK-41054] [SC-116447] [Felhasználói felület] [CORE] A RocksDB támogatása KVStore-ként az élő felhasználói felületen
- [SPARK-38550] [SC-115223] "[SQL][CORE] Lemezalapú tároló használata további hibakeresési információk mentéséhez az élő felhasználói felületen"
- [SPARK-41173] [SC-116185] [SQL] Ugrás
require()
a sztringkifejezések konstruktorai közül - [SPARK-41188] [SC-116242] [CORE] [ML] Állítsa be a executorEnv OMP_NUM_THREADS alapértelmezés szerint spark.task.cpus értékre spark-végrehajtó JVM-folyamatokhoz
- [SPARK-41130] [SC-116155] [SQL] Átnevezés
OUT_OF_DECIMAL_TYPE_RANGE
:NUMERIC_OUT_OF_SUPPORTED_RANGE
- [SPARK-41175] [SC-116238] [SQL] Név hozzárendelése a _LEGACY_ERROR_TEMP_1078 hibaosztályhoz
- [SPARK-41106] [SC-116073] [SQL] Gyűjteményátalakítás csökkentése attribútumtérkép létrehozásakor
- [SPARK-41139] [SC-115983] [SQL] Hibaosztály javítása:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997] [PROTOBUF] Árnyékolás megkövetelése a Java-osztály jarhoz, a hibakezelés javítása
- [SPARK-40999] [SC-116168] Emlékeztető propagálása albekérdezésekre
- [SPARK-41017] [SC-116054] [SQL] Oszlopok metszésének támogatása több nemdeterminista szűrővel
- [SPARK-40834] [SC-114773] [SQL] A SparkListenerSQLExecutionEnd használatával nyomon követheti a végleges SQL-állapotot a felhasználói felületen
- [SPARK-41118] [SC-116027] [SQL]
to_number
/try_to_number
akkor kell visszaadnianull
, ha a formátumnull
- [SPARK-39799] [SC-115984] [SQL] DataSourceV2: Katalógus felületének megtekintése
- [SPARK-40665] [SC-116210] [SC-112300] [CONNECT] Kerülje a Spark Csatlakozás beágyazását az Apache Spark bináris kiadásba
- [SPARK-41048] [SC-116043] [SQL] A kimeneti particionálás és a rendezés javítása az AQE-gyorsítótárral
- [SPARK-41198] [SC-116256] [SS] Metrikák javítása cTE- és DSv1-streamforrással rendelkező streamelési lekérdezésekben
- [SPARK-41199] [SC-116244] [SS] Metrikaproblémák kijavítása A DSv1 streamforrás és a DSv2 streamforrás együttes használata esetén
- [SPARK-40957] [SC-116261] [SC-114706] Hozzáadás a HDFSMetadataLog memóriagyorsítótárában
- [SPARK-40940] "[SC-115993] Többállapotú operátor-ellenőrzők eltávolítása streamelési lekérdezésekhez".
- [SPARK-41090] [SC-116040] [SQL] Kivétel dobása az
db_name.view_name
Adathalmaz API ideiglenes nézetének létrehozásakor - [SPARK-41133] [SC-116085] [SQL] Integrálás
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
aNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182] [SC-111442] [CONNECT] 9. kóddömping véglegesítése
- [SPARK-40448] [SC-114447] [SC-111314] [CONNECT] Spark Csatlakozás buildelés illesztőprogram-beépülő modulként árnyékolt függőségekkel
- [SPARK-41096] [SC-115812] [SQL] A parquet FIXED_LEN_BYTE_ARRAY típusának támogatása
- [SPARK-41140] [SC-115879] [SQL] Nevezze át a hibaosztályt
_LEGACY_ERROR_TEMP_2440
a következőre:INVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438] [SQL] Eltérés a FileSourceScanExec és az Orc és a ParquetFileFormat között az oszlopos kimenet előállításakor
- [SPARK-41155] [SC-115991] [SQL] Hibaüzenet hozzáadása a SchemaColumnConvertNotSupportedException szolgáltatáshoz
- [SPARK-40940] [SC-115993] A streamelési lekérdezések többállapotú operátor-ellenőrzőinek eltávolítása.
- [SPARK-41098] [SC-115790] [SQL] Átnevezés
GROUP_BY_POS_REFERS_AGG_EXPR
:GROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912] [SQL] Számformázás típusellenőrzési hibáinak migrálása hibaosztályokra
- [SPARK-41059] [SC-115658] [SQL] Átnevezés
_LEGACY_ERROR_TEMP_2420
:NESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662] [SQL] Konvertálás DATATYPE_MISMATCH. UNSPECIFIED_FRAME to INTERNAL_ERROR
- [SPARK-40973] [SC-115132] [SQL] Átnevezés
_LEGACY_ERROR_TEMP_0055
:UNCLOSED_BRACKETED_COMMENT
Karbantartási frissítések
Lásd a Databricks Runtime 12.1 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | Fekete | 22.3.0 | Fehérítő | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | minősítés | 2021.10.8 |
cffi | 1.15.0 | karakterkészlet | 4.0.0 | charset-normalizer | 2.0.4 |
kattintás | 8.0.4 | Titkosítás | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | hibakeresés | 1.5.1 |
Dekoratőr | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | belépési pontok | 0,4 | Végrehajtó | 0.8.3 |
aspektusok áttekintése | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
betűtípusok | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgetek | 1.0.0 |
kiwisolver | 1.3.2 | Korrektúra Széf | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
jegyzetfüzet | 6.4.8 | numpy | 1.21.5 | Csomagolás | 21,3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Párna | 9.0.1 | Pip | 21.2.4 |
platformdirs | 2.6.0 | ábrázolás | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
kérelmek | 2.27.1 | requests-unixsocket | 0.2.0 | Kötél | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
tengeri | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
Hat | 1.16.0 | levessieve | 2.3.1 | ssh-import-id | 5.10 |
veremadatok | 0.2.0 | statsmodels | 0.13.2 | Kitartás | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | Tornádó | 6.1 |
árulók | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.3 |
Kerék | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Telepített R-kódtárak
Az R-kódtárak a 2022-11-11-i Microsoft CRAN-pillanatképből vannak telepítve.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 10.0.0 | askpass | 1,1 | assertthat | 0.2.1 |
Backports | 1.4.1 | alap | 4.2.2 | base64enc | 0.1-3 |
Kicsit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
indítás | 1.3-28 | Sört | 1.0-8 | Brio | 1.1.3 |
Seprű | 1.0.1 | bslib | 0.4.1 | gyorsítótár | 1.0.6 |
hívó | 3.7.3 | Billentyűzettel | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | osztály | 7.3-20 | Cli | 3.4.1 |
clipr | 0.8.0 | Óra | 0.6.1 | Fürt | 2.1.4 |
kódtoolok | 0.2-18 | színtér | 2.0-3 | commonmark | 1.8.1 |
Fordító | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
Zsírkréta | 1.5.2 | hitelesítő adatok | 1.3.2 | Curl | 4.3.3 |
data.table | 1.14.4 | adatkészletek | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | Digest | 0.6.30 | levilágított | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
három pont | 0.3.2 | evaluate | 0,18 | fani | 1.0.3 |
farver | 2.1.1 | gyorstérkép | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | Külföldi | 0.8-82 |
Forge | 0.2.0 | Fs | 1.5.2 | Jövőben | 1.29.0 |
future.apply | 1.10.0 | Gargarizál | 1.2.1 | Generikus | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | Globals | 0.16.1 |
Ragasztó | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafika | 4.2.2 | grDevices | 4.2.2 |
Rács | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | Haven | 2.5.1 |
highr | 0,9 | Hms | 1.1.2 | htmltoolok | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Azonosítók | 1.0.1 | Ini | 0.3.1 | ipred | 0.9-13 |
izoband | 0.2.6 | iterátorok | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1,40 |
Címkézés | 0.4.2 | Később | 1.3.0 | Rács | 0.20-45 |
Láva | 1.7.0 | életciklus | 1.0.3 | figyelő | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58 | Mátrix | 1.5-1 | memoise | 2.0.1 |
metódusok | 4.2.2 | mgcv | 1.8-41 | Mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | Openssl | 2.0.4 | parallel | 4.2.2 |
párhuzamosan | 1.32.1 | Pillér | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | rétegelt | 1.8.7 | Dicséret | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Haladás | 1.2.2 |
progressr | 0.11.0 | Ígér | 1.2.0.1 | Proto | 1.0.0 |
Proxy | 0.4-27 | Ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
olvasó | 2.1.3 | readxl | 1.4.1 | receptek | 1.0.3 |
Visszavágót | 1.0.1 | visszavágó2 | 2.1.2 | Távirányító | 2.4.2 |
reprex | 2.0.2 | újraformázás2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.2 | Mérlegek | 1.2.1 |
választó | 0.4-2 | sessioninfo | 1.2.2 | Alakzat | 1.4.6 |
Fényes | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | Térbeli | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | NÉGYZET | 2021.1 | Statisztika | 4.2.2 |
statisztikák4 | 4.2.2 | stringi | 1.7.8 | sztring | 1.4.1 |
Túlélési | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | szövegformázás | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | eszközök | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
eszközök | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | Waldo | 0.4.0 |
bajusz | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
Yaml | 2.3.6 | Zip | 2.2.2 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | Patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | Osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.koffein | Koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natívok | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natívok | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Csellengő | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | Guava | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEA Standard kiadás |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metrikamag | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Kollektor | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | Lé | 1,2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | nyílformátum | 7.0.0 |
org.apache.arrow | nyíl-memóriamag | 7.0.0 |
org.apache.arrow | nyíl-memória-netty | 7.0.0 |
org.apache.arrow | nyíl-vektor | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | Ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-kódolás | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | célközönség-széljegyzetek | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | móló-folytatás | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | móló plusz | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Alátéteket | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,2 |
org.scalanlp | breeze_2.12 | 1,2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | Használatlan | 1.0.0 |
org.threeten | három-extra | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | makró-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
Oro | Oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |