Databricks Runtime 7.4 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.
A Databricks 2020 novemberében adta ki ezt a verziót.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.0 által működtetett Databricks Runtime 7.4-ről nyújtanak információkat.
Új funkciók
Ebben a szakaszban:
- A Delta Lake funkciói és fejlesztései
- Az Automatikus betöltő mostantól támogatja a fájlértesítési erőforrások beállításának rendszergazdákra történő delegálását
- Az új
USAGE
jogosultságok nagyobb ellenőrzést biztosítanak a rendszergazdáknak az adathozzáférési jogosultságok felett - A DBFS FUSE mostantól engedélyezve van az átengedés-kompatibilis fürtökhöz
A Delta Lake funkciói és fejlesztései
Ez a kiadás a következő Delta Lake-funkciókat és -fejlesztéseket biztosítja:
- Az új API lehetővé teszi a Delta Lake számára annak ellenőrzését, hogy a táblához hozzáadott adatok megfelelnek-e a korlátozásoknak
- Az új API lehetővé teszi a Delta-tábla visszaállítását a tábla egy régebbi verziójára
- Az új kezdő verzió lehetővé teszi, hogy csak a legújabb módosításokat adja vissza egy Delta Lake streamelési forrásban
- Továbbfejlesztett stabilitása
OPTIMIZE
Az új API lehetővé teszi a Delta Lake számára annak ellenőrzését, hogy a táblához hozzáadott adatok megfelelnek-e a korlátozásoknak
A Delta Lake mostantól támogatja CHECK
a korlátozásokat. Ha megadja, a Delta Lake automatikusan ellenőrzi, hogy a táblához hozzáadott adatok megfelelnek-e a megadott kifejezésnek.
Korlátozások hozzáadásához CHECK
használja a ALTER TABLE ADD CONSTRAINTS
parancsot. További információ: Az Azure Databricks korlátozásai.
Az új API lehetővé teszi a Delta-tábla visszaállítását a tábla egy régebbi verziójára
A Delta-táblákat a következő paranccsal visszaállíthatja a RESTORE
régebbi verziókra:
SQL
RESTORE <table> TO VERSION AS OF n;
RESTORE <table> TO TIMESTAMP AS OF 'yyyy-MM-dd HH:mm:ss';
Python
from delta.tables import DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp('yyyy-MM-dd')
Scala
import io.delta.tables.DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp("yyyy-MM-dd")
RESTORE
létrehoz egy új véglegesítést, amely visszaállítja a táblán végrehajtott összes módosítást a visszaállítani kívánt verzió óta. A rendszer visszaállítja az összes meglévő adatot és metaadatot, beleértve a sémát, a korlátozásokat, a streamelési tranzakció azonosítóit, COPY INTO
a metaadatokat és a táblaprotokoll-verziót. További részletekért lásd : Delta-tábla visszaállítása.
Az új kezdő verzió lehetővé teszi, hogy csak a legújabb módosításokat adja vissza egy Delta Lake streamelési forrásban
Ha csak a legújabb módosításokat szeretné visszaadni, adja meg startingVersion
a következőt latest
: . További részletekért lásd a kezdeti pozíció megadása című témakört.
Továbbfejlesztett stabilitása OPTIMIZE
OPTIMIZE
(partíciós predikátumok nélkül) több tízmillió kis fájlból álló táblákra méretezhető. Korábban az Apache Spark-illesztőprogram elfogyhatott a memóriából, és OPTIMIZE
nem fejeződött be.OPTIMIZE
Most már nagyon nagy táblákat kezel több tízmillió fájllal.
Az Automatikus betöltő mostantól támogatja a fájlértesítési erőforrások beállításának rendszergazdákra történő delegálását
Az új Scala API-val a rendszergazdák fájlértesítési erőforrásokat állíthatnak be az Automatikus betöltőhöz. Az adatmérnökök mostantól kevesebb engedéllyel üzemeltethetik az automatikus betöltő streameket úgy, hogy delegálják a kezdeti erőforrás-beállítást a rendszergazdáiknak. Lásd: Fájlértesítési erőforrások manuális konfigurálása vagy kezelése.
Az új USAGE
jogosultságok nagyobb ellenőrzést biztosítanak a rendszergazdáknak az adathozzáférési jogosultságok felett
Ha műveletet szeretne végrehajtani egy adatbázisban lévő objektumon, akkor a USAGE
művelet végrehajtásához szükséges jogosultságokon felül meg kell adnia az adott adatbázisra vonatkozó jogosultságot. A USAGE
jogosultság egy adatbázishoz vagy katalógushoz adható. A jogosultság bevezetésekor a USAGE
táblatulajdonos nem dönthet úgy, hogy egyoldalúan megosztja azt egy másik felhasználóval; a felhasználónak a táblát tartalmazó adatbázisban is rendelkeznie USAGE
kell jogosultsággal.
Olyan munkaterületeken, amelyeken engedélyezve van a táblahozzáférés-vezérlés, a users
csoport automatikusan rendelkezik a USAGE
gyökérjoggal CATALOG
.
További részletekért lásd a USAGE jogosultságot.
A DBFS FUSE mostantól engedélyezve van az átengedés-kompatibilis fürtökhöz
Most már olvashat és írhat a DBFS-ből a FUSE csatlakoztatásával /dbfs/
, amikor a hitelesítő adatok átengedéséhez engedélyezett magas egyidejűségi fürtöt használ. A normál csatlakoztatások támogatottak. Az átmenő hitelesítő adatokat igénylő csatlakoztatások nem támogatottak.
Fejlesztések
A Spark SQL támogatja és CHARINDEX
szinonimaként IF
támogatja IFF
ésPOSITION
A Databricks Runtime IF()
a CASE WHEN <cond> THEN <expr1> ELSE <expr2> END
A Databricks Runtime mostantól szinonimaként támogatja IFF()
a IF()
SELECT IFF(c1 = 1, 'Hello', 'World'), c1 FROM (VALUES (1), (2)) AS T(c1)
=> (Hello, 1)
(World, 2)
CHARINDEX
a függvény alternatív neve POSITION
. CHARINDEX
megkeresi egy sztring első előfordulásának helyét egy másik sztringben egy választható kezdőindexkel.
VALUES(CHARINDEX('he', 'hello from hell', 2))
=> 12
Alapértelmezés szerint több kimenet engedélyezett cellánként a Python-jegyzetfüzetekhez
A Databricks Runtime 7.1 több kimenetet is támogatott cellánként a Python-jegyzetfüzetekben (és a nem Python-jegyzetfüzetekben lévő %Python-cellákat), de engedélyeznie kellett a funkciót a jegyzetfüzethez. Ez a funkció alapértelmezés szerint engedélyezve van a Databricks Runtime 7.4-ben. Lásd: Több kimenet megjelenítése cellánként.
A Python-jegyzetfüzetek automatikus kiegészítési fejlesztései
A Python automatikus kiegészítése a kód statikus elemzéséből származó további típusinformációkat jeleníti meg a Jedi-kódtár használatával. A Tab billentyűvel megtekintheti a lehetőségek listáját.
A Spark ML-vektorok továbbfejlesztett display
verziója a Spark DataFrame előzetes verziójában
A display
formátum mostantól a vektortípus (ritka vagy sűrű), a hossz, az indexek (ritka vektorok) és az értékek címkéit jeleníti meg.
Egyéb javítások
- Kijavítottunk egy válogatós hibát
collections.namedtuple
a jegyzetfüzetekben. - Kijavítottuk az interaktívan definiált osztályok és metódusok pácolásával kapcsolatos problémát.
- Kijavítottunk egy hibát, amely miatt a hívások
mlflow.start_run()
átengedés miatt meghiúsultak, vagy a táblák hozzáférés-vezérléséhez engedélyezett fürtök.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- 0.14.1-ről 0.17.2-re frissített jedi.
- koalák frissítve 1.2.0-ról 1.3.0-ra.
- parso frissítve 0.5.2-ről 0.7.0-ra.
- Több telepített R-kódtárat frissített. Lásd: Telepített R-kódtárak.
Apache Spark
A Databricks Runtime 7.4 tartalmazza az Apache Spark 3.0.1-et. Ez a kiadás tartalmazza a Databricks Runtime 7.3 LTS -ben (EoS) található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-33170] [SQL] SQL-konfiguráció hozzáadása a gyors sikertelen működés szabályozásához a FileFormatWriterben
- [SPARK-33136] [SQL] Hibásan felcserélt paraméter javítása a V2WriteCommand.outputResolved fájlban
- [SPARK-33134] [SQL] Részleges eredmények visszaadása csak gyökérszintű JSON-objektumok esetén
- [SPARK-33038] [SQL] Az AQE kezdeti és jelenlegi tervének egyesítése...
- [SPARK-33118] [SQL] A CREATE ideiglenes tábla helyével meghiúsul
- [SPARK-33101] [ML] A LibSVM formátum propagálja a Hadoop-konfigurációt a DS-beállításokról a mögöttes HDFS fájlrendszerre
- [SPARK-33035] [SQL] Frissíti az attribútumleképezés elavult bejegyzéseit a QueryPlan#transformUpWithNewOutput fájlban
- [SPARK-33091] [SQL] Az OrcUtils.readCatalystSchema hívóinál ne használjon térképet foreach helyett
- [SPARK-33073] [PYTHON] Hibakezelés javítása a Pandas-ról nyílra konvertálási hibák esetén
- [SPARK-33043] [ML] A spark.driver.maxResultSize=0 kezelése a RowMatrix heurisztikus számításában
- [SPARK-29358] [SQL] Az unionByName megadása kötelezően kitölti a hiányzó oszlopokat null értékekkel
- [SPARK-32996] [WEB-UI] Üres ExecutorMetrics kezelése a ExecutorMetricsJsonSerializerben
- [SPARK-32585] [SQL] Scala-számbavétel támogatása a ScalaReflection szolgáltatásban
- [SPARK-33019] [CORE] Alapértelmezés szerint a spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version=1 használata
- [SPARK-33018] [SQL] Becslési statisztikai probléma javítása, ha a gyermeknek 0 bájtja van
- [SPARK-32901] [CORE] Ne foglaljon le memóriát a UnsafeExternalSorter kiömlése közben
- [SPARK-33015] [SQL] MillisToDays() használata a ComputeCurrentTime szabályban
- [SPARK-33015] [SQL] Az aktuális dátum kiszámítása csak egyszer
- [SPARK-32999] [SQL] A Utils.getSimpleName használatával elkerülheti a hibásan formázott osztály nevét a TreeNode-ban
- [SPARK-32659] [SQL] Szórási tömb a Set inSubqueryExec helyett
- [SPARK-32718] [SQL] Az intervallumegységek szükségtelen kulcsszavainak eltávolítása
- [SPARK-32886] [WEBUI] kijavítottuk a "nem definiált" hivatkozást az esemény ütemtervének nézetben
- [SPARK-32898] [CORE] Hibás végrehajtórunTime kijavítása, ha a feladat a tényleges kezdés előtt el lett végezve
- [SPARK-32635] [SQL] Új teszteset hozzáadása a katalizátormodulhoz
- [SPARK-32930] [CORE] Elavult isFile/isDirectory metódusok cseréje
- [SPARK-32906] [SQL] A szerkezetmezők neve nem módosítható az úszók normalizálása után
- [SPARK-24994] [SQL] UnwrapCastInBinaryComparison optimalizáló hozzáadása az integrál literál leegyszerűsítéséhez
- [SPARK-32635] [SQL] Összecsukható propagálás javítása
- [SPARK-32738] [CORE] Csökkentenie kell az aktív szálak számát, ha végzetes hiba történik a
Inbox.process
- [SPARK-32900] [CORE] Null érték esetén a UnsafeExternalSorter kiszivárgásának engedélyezése
- [SPARK-32897] [PYTHON] Ne jelenjen meg elavulásra figyelmeztető üzenet a SparkSession.builder.getOrCreate webhelyen
- [SPARK-32715] [CORE] Memóriavesztés javítása, ha nem sikerült tárolni a közvetítési darabokat
- [SPARK-32715] [CORE] Memóriavesztés javítása, ha nem sikerült tárolni a közvetítési darabokat
- [SPARK-32872] [CORE] A BytesToBytesMap MAX_CAPACITY növekedési küszöbértékének túllépésének megakadályozása
- [SPARK-32876] [SQL] Az alapértelmezett tartalékverzió módosítása a HiveExternalCatalogVersionsSuite 3.0.1-es és 2.4.7-es verziójára
- [SPARK-32840] [SQL] Érvénytelen intervallumérték lehet csak ragasztó az egységhez
- [SPARK-32819] Az [SQL] ignoreNullability paraméternek rekurzív módon kell érvényesnek lennie
- [SPARK-32832] [SS] CaseInsensitiveMap használata a DataStreamReader/Writer beállításhoz
- [SPARK-32794] [SS] Kijavítottuk a ritka sarkú kisbetűs hibát a mikrokötegmotorban néhány állapotalapú lekérdezéssel + nem adatkötegekkel + V1-forrásokkal
- [SPARK-32813] [SQL] ParquetSource vektoros olvasó alapértelmezett konfigurációjának lekérése, ha nincs aktív SparkSession
- [SPARK-32823] [WEBES FELHASZNÁLÓI FELÜLET] A fő felhasználói felületi erőforrások jelentésének javítása
- [SPARK-32824] [CORE] Javítsa a hibaüzenetet, ha a felhasználó elfelejti a .amount erőforrás-konfigurációban
- [SPARK-32614] [SQL] Ne alkalmazza a megjegyzésfeldolgozást, ha a "megjegyzés" nincs megszabva a CSV-hez
- [SPARK-32638] [SQL] A WidenSetOperationTypes aliasok hozzáadásakor kijavítja a hivatkozásokat
- [SPARK-32810] [SQL] A CSV-/JSON-adatforrásoknak kerülnie kell az elérési utakat a séma következtetésekor
- [SPARK-32815] [ML] A LibSVM-adatforrás betöltési hibájának kijavítása a glob metacharacterekkel rendelkező fájlelérési útvonalakon
- [SPARK-32753] [SQL] Csak címkék másolása címkével nem rendelkező csomópontra
- [SPARK-32785] [SQL] A csonkoló alkatrészekkel rendelkező intervallum nem eredményezhet null értéket
- [SPARK-32764] [SQL] A -0.0 értéknek 0,0-nak kell lennie
- [SPARK-32810] [SQL] A CSV-/JSON-adatforrásoknak kerülnie kell az elérési utakat a séma következtetésekor
- [SPARK-32779] [SQL] Kerülje a SessionCatalog szinkronizált API-jának használatát aClient-folyamattal, ez holtponthoz vezet
- [SPARK-32791] [SQL] A nem particionált táblametrikának nem szabad dinamikus partíciómetszet-metszési idővel rendelkeznie
- [SPARK-32767] [SQL] A gyűjtőbeillesztés akkor működik, ha spark.sql.shuffle.partitions nagyobb, mint a gyűjtő száma
- [SPARK-32788] [SQL] nem particionált táblavizsgálatnak nem szabad partíciószűrővel rendelkeznie
- [SPARK-32776] [SS] A streamelési korlátot nem szabad optimalizálni a PropagálásEmptyRelation használatával
- [SPARK-32624] [SQL] Regresszió javítása a CodegenContext.addReferenceObj fájlban beágyazott Scala-típusok esetén
- [SPARK-32659] [SQL] A DPP nem atomi típusú metszési vizsgálatának javítása
- [SPARK-31511] [SQL] BytesToBytesMap iterátorok szálvédetté tétele
- [SPARK-32693] [SQL] Két adatkeret összehasonlítása ugyanazzal a sémával, kivéve a null értékű tulajdonságot
- [SPARK-28612] [SQL] A DataFrameWriterV2.replace() helyes metódus-dokumentuma
Karbantartási frissítések
Lásd a Databricks Runtime 7.4 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 18.04.5 LTS
- Java: Zulu 8.48.0.53-CA-linux64 (1.8.0_265-b11-es build)
- Scala: 2.12.10
- Python: 3.7.5
- R: R 3.6.3-es verzió (2020-02-29)
- Delta Lake 0.7.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
asn1crypto | 1.3.0 | backcall | 0.1.0 | boto3 | 1.12.0 |
botocore | 1.15.0 | minősítés | 2020.6.20 | cffi | 1.14.0 |
karakterkészlet | 3.0.4 | kriptográfia | 2.8 | biciklista | 0.10.0 |
Cython | 0.29.15 | lakberendező | 4.4.1 | docutils | 0.15.2 |
belépési pontok | 0.3 | idna | 2.8 | ipykernel | 5.1.4 |
ipython | 7.12.0 | ipython-genutils | 0.2.0 | jedi | 0.17.2 |
jmespath | 0.10.0 | joblib | 0.14.1 | jupyter-client | 5.3.4 |
jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | Koalák | 1.3.0 |
matplotlib | 3.1.3 | numpy | 1.18.1 | pandas | 1.0.1 |
parso | 0.7.0 | Patsy | 0.5.1 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | mag | 20.0.2 | prompt-toolkit | 3.0.3 |
psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | pyarrow | 1.0.1 |
pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
pyOpenSSL | 19.1.0 | pyparsing | 2.4.6 | PySocks | 1.7.1 |
python-apt | 1.6.5+ubuntu0.3 | python-dateutil | 2.8.1 | pytz | 2019.3 |
pyzmq | 18.1.1 | kérelmek | 2.22.0 | s3transfer | 0.3.3 |
scikit-learn | 0.22.1 | scipy | 1.4.1 | tengeri | 0.10.0 |
setuptools | 45.2.0 | Hat | 1.14.0 | ssh-import-id | 5.7 |
statsmodels | 0.11.0 | tornádó | 6.0.3 | árulók | 4.3.3 |
felügyelet nélküli frissítések | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
wcwidth | 0.1.8 | kerék | 0.34.2 |
Telepített R-kódtárak
Az R-kódtárak a Microsoft CRAN-pillanatképből vannak telepítve a XXXX-XX-XX rendszeren.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backports | 1.1.8 |
alap | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
bit | 1.1-15.2 | bit64 | 0.9-7 | blob | 1.2.1 |
indítás | 1.3-25 | főz | 1.0-6 | seprű | 0.7.0 |
hívó | 3.4.3 | kalap | 6.0-86 | cellranger | 1.1.0 |
chron | 2.3-55 | osztály | 7.3-17 | Cli | 2.0.2 |
clipr | 0.7.0 | fürt | 2.1.0 | kódtoolok | 0.2-16 |
színtér | 1.4-1 | commonmark | 1,7 | fordítóprogram | 3.6.3 |
config | 0.3 | covr | 3.5.0 | zsírkréta | 1.3.4 |
Ellenvélemények | 1.1.0.1 | csavarodik | 4.3 | data.table | 1.12.8 |
adatkészletek | 3.6.3 | DBI | 1.1.0 | dbplyr | 1.4.4 |
Desc | 1.2.0 | devtools | 2.3.0 | emészt | 0.6.25 |
dplyr | 0.8.5 | DT | 0,14 | három pont | 0.3.1 |
evaluate | 0,14 | fani | 0.4.1 | farver | 2.0.3 |
gyorstérkép | 1.0.1 | forcats | 0.5.0 | foreach | 1.5.0 |
külföldi | 0.8-76 | kovácsol | 0.2.0 | Fs | 1.4.2 |
Generikus | 0.0.2 | ggplot2 | 3.3.2 | Gh | 1.1.0 |
git2r | 0.27.1 | glmnet | 3.0-2 | globális | 0.12.5 |
ragasztó | 1.4.1 | Gower | 0.2.2 | grafika | 3.6.3 |
grDevices | 3.6.3 | rács | 3.6.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | kikötő | 2.3.1 |
highr | 0,8 | Hms | 0.5.3 | htmltoolok | 0.5.0 |
htmlwidgets | 1.5.1 | httpuv | 1.5.4 | httr | 1.4.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
ipred | 0.9-9 | izoband | 0.2.2 | iterátorok | 1.0.12 |
jsonlite | 1.7.0 | KernSmooth | 2.23-17 | knitr | 1,29 |
címkézés | 0.3 | később | 1.1.0.1 | rács | 0.20-41 |
láva | 1.6.7 | lazyeval | 0.2.2 | életciklus | 0.2.0 |
lubridate | 1.7.9 | magrittr | 1,5 | markdown | 1,1 |
TÖMEG | 7.3-53 | Mátrix | 1.2-18 | memoise | 1.1.0 |
metódusok | 3.6.3 | mgcv | 1.8-33 | MIME | 0,9 |
ModelMetrics | 1.2.2.2 | modellező | 0.1.8 | munsell | 0.5.0 |
nlme | 3.1-149 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
openssl | 1.4.2 | parallel | 3.6.3 | pillér | 1.4.6 |
pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
plogr | 0.2.0 | rétegelt | 1.8.6 | dicséret | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.16.2 | processx | 3.4.3 |
prodlim | 2019.11.13 | haladás | 1.2.2 | Ígér | 1.1.1 |
Proto | 1.0.0 | Ps | 1.3.3 | purrr | 0.3.4 |
r2d3 | 0.2.3 | R6 | 2.4.1 | randomForest | 4.6-14 |
rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
Rcpp | 1.0.5 | olvasó | 1.3.1 | readxl | 1.3.1 |
receptek | 0.1.13 | Visszavágót | 1.0.1 | visszavágó2 | 2.1.2 |
Távirányító | 2.1.1 | reprex | 0.3.0 | újraformázás2 | 1.4.4 |
Rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.7 |
rmarkdown | 2.3 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
RSQLite | 2.2.0 | rstudioapi | 0,11 | rversions | 2.0.2 |
rvest | 0.3.5 | mérleg | 1.1.1 | választó | 0.4-2 |
sessioninfo | 1.1.1 | alak | 1.4.4 | Fényes | 1.5.0 |
sourcetools | 0.1.7 | sparklyr | 1.3.1 | SparkR | 3.0.0 |
térbeli | 7.3-11 | splines | 3.6.3 | sqldf | 0.4-11 |
NÉGYZET | 2020.3 | statisztika | 3.6.3 | statisztikák4 | 3.6.3 |
stringi | 1.4.6 | sztring | 1.4.0 | túlélés | 3.2-7 |
sys | 3.3 | tcltk | 3.6.3 | TeachingDemos | 2.10 |
testthat | 2.3.2 | tibble | 3.0.3 | tidyr | 1.1.0 |
tidyselect | 1.1.0 | tidyverse | 1.3.0 | timeDate | 3043.102 |
tinytex | 0,24 | eszközök | 3.6.3 | usethis | 1.6.1 |
utf8 | 1.1.4 | eszközök | 3.6.3 | uuid | 0.1-4 |
vctrs | 0.3.1 | viridisLite | 0.3.0 | bajusz | 0,4 |
withr | 2.2.0 | xfun | 0,15 | xml2 | 1.3.2 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natívok | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natívok | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.4.4-3 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.9.5 |
com.twitter | chill_2.12 | 0.9.5 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.0 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.9.4 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.10 |
io.dropwizard.metrics | metrikamag | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.47.Final |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.razorvine | pyrolite | 4.30 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.12.8 |
net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.7.1 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | nyílformátum | 0.15.1 |
org.apache.arrow | nyíl-memória | 0.15.1 |
org.apache.arrow | nyíl-vektor | 0.15.1 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.9 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | kurátor-ügyfél | 2.7.1 |
org.apache.curator | kurátor-keretrendszer | 2.7.1 |
org.apache.curator | kurátor-receptek | 2.7.1 |
org.apache.derby | keménykalap | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.4 |
org.apache.hadoop | hadoop-auth | 2.7.4 |
org.apache.hadoop | hadoop-client | 2.7.4 |
org.apache.hadoop | hadoop-common | 2.7.4 |
org.apache.hadoop | hadoop-hdfs | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | hive-cli | 2.3.7 |
org.apache.hive | hive-common | 2.3.7 |
org.apache.hive | hive-exec-core | 2.3.7 |
org.apache.hive | hive-jdbc | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-llap-common | 2.3.7 |
org.apache.hive | hive-metastore | 2.3.7 |
org.apache.hive | hive-serde | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | hive-storage-api | 2.7.1 |
org.apache.hive | hive-vector-code-gen | 2.3.7 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
org.apache.hive.shims | hive-shims-common | 2.3.7 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.7 |
org.apache.htrace | htrace-core | 3.1.0-inkubálás |
org.apache.httpcomponents | httpclient | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | borostyán | 2.4.0 |
org.apache.orc | orc-core | 1.5.10 |
org.apache.orc | orc-mapreduce | 1.5.10 |
org.apache.orc | orc-shims | 1.5.10 |
org.apache.parquet | parquet-column | 1.10.1-databricks6 |
org.apache.parquet | parquet-common | 1.10.1-databricks6 |
org.apache.parquet | parquet-kódolás | 1.10.1-databricks6 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks6 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks6 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.velocity | sebesség | 1,5 |
org.apache.xbean | xbean-asm7-shaded | 4.15 |
org.apache.yetus | célközönség-széljegyzetek | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
org.eclipse.jetty | móló-folytatás | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
org.eclipse.jetty | móló plusz | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-security | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-server | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-webapp | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
org.glassfish.jersey.core | jersey-client | 2.30 |
org.glassfish.jersey.core | jersey-common | 2.30 |
org.glassfish.jersey.core | jersey-server | 2.30 |
org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.30 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.6.6 |
org.json4s | json4s-core_2.12 | 3.6.6 |
org.json4s | json4s-jackson_2.12 | 3.6.6 |
org.json4s | json4s-scalap_2.12 | 3.6.6 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.7.45 |
org.roaringbitmap | Alátéteket | 0.7.45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.10 |
org.scala-lang | scala-library_2.12 | 2.12.10 |
org.scala-lang | scala-reflect_2.12 | 2.12.10 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | Használatlan | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | rugós teszt | 4.1.4.RELEASE |
org.threeten | három-extra | 1.5.0 |
org.tukaani | xz | 1,5 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | makró-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.5 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |