Databricks Runtime 4.0 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.
A Databricks 2018 márciusában adta ki ezt a verziót.
Fontos
Ez a kiadás 2018. november 1-jén elavult. A Databricks runtime-elavulási szabályzatáról és ütemezéséről további információt a Databricks támogatási életciklusában talál.
Az alábbi kibocsátási megjegyzések az Apache Spark által üzemeltetett Databricks Runtime 4.0-ról nyújtanak információkat.
Változások és fejlesztések
- A JSON-adatforrás most megpróbálja automatikusan észlelni a kódolást, és nem feltételezi, hogy UTF-8. Ha az automatikus észlelés sikertelen, a felhasználók megadhatják a karakterkészlet beállítását egy bizonyos kódolás kényszerítéséhez. Lásd: Karakterkészlet automatikus észlelése.
- A Spark MLlib-folyamatok strukturált streamelésben való használatával történő pontozás és előrejelzés teljes mértékben támogatott.
- A Databricks ML-modell exportálása teljes mértékben támogatott. Ezzel a funkcióval betanított egy Spark MLlib-modellt a Databricksen, exportálhatja egy függvényhívással, és használhat egy Databricks-kódtárat a választott rendszerben a modell importálásához és új adatok pontozásához.
- Egy új Spark-adatforrás-implementáció skálázható olvasási/írási hozzáférést biztosít az Azure Synapse Analyticshez. Lásd: Spark – Synapse Analytics-összekötő.
- A függvény sémája
from_json
mostantól mindig null értékűre lesz konvertálva. Más szóval minden mező, beleértve a beágyazott mezőket is, null értékű. Ez biztosítja, hogy az adatok kompatibilisek a sémával, megakadályozva a sérülést az adatok parquetre írása után, ha egy mező hiányzik az adatokból, és a felhasználó által megadott séma nem null értékűként deklarálja a mezőt. - Frissített néhány telepített Python-kódtárat:
- határidős: 3.1.1-től 3.2.0-ra
- pandas: 0.18.1-től 0.19.2-től
- pyarrow: 0.4.1-től 0.8.0-ra
- setuptools: 38.2.3-tól 38.5.1-től
- tornádó: 4.5.2–4.5.3
- Több telepített R-kódtárat frissített. Lásd: Telepített R-kódtárak.
- Az AWS Java SDK 1.11.126-ról 1.11.253-ra frissült.
- Frissített SQL Server JDBC-illesztő 6.1.0.jre8-ról 6.2.2.jre8-ra.
- Frissített PostgreSQL JDBC-illesztő a 9.4-1204-jdbc41-ről 42.1.4-re.
Apache Spark
A Databricks Runtime 4.0 tartalmazza az Apache Spark 2.3.0-t.
Core, PySpark és Spark SQL
Főbb funkciók
- Vektorizált ORC-olvasó: [SPARK-16060]: Támogatja az új ORC-olvasót, amely jelentősen javítja az ORC-vizsgálat átviteli sebességét vektorizálással (2-5x). Az olvasó engedélyezéséhez a felhasználók beállíthatják a következőt
spark.sql.orc.impl
native
: . - Spark History Server V2: [SPARK-18085]: Egy új Spark History Server (SHS) háttérrendszer, amely hatékonyabb eseménytárolási mechanizmussal jobb méretezhetőséget biztosít a nagy méretű alkalmazások számára.
- Adatforrás API V2: [SPARK-15689][SPARK-22386]: Kísérleti API a Spark új adatforrásainak csatlakoztatásához. Az új API megpróbálja kezelni a V1 API számos korlátozását, és célja, hogy megkönnyítse a nagy teljesítményű, könnyen karbantartható és bővíthető külső adatforrások fejlesztését. Ez az API még mindig aktív fejlesztés alatt áll, és kompatibilitástörő változásokra kell számítani.
- PySpark-teljesítménybeli fejlesztések: [SPARK-22216][SPARK-21187]: Jelentős fejlesztések a Python teljesítményében és együttműködésében gyors adat szerializálással és vektorizált végrehajtással.
Teljesítmény és stabilitás
- [SPARK-21975]: Hisztogram támogatása a költségalapú optimalizálóban.
- [SPARK-20331]: Jobb támogatás a Hive-partíciók metszéséhez szükséges predikátumleküldéshez.
- [SPARK-19112]: A ZStandard tömörítési kodek támogatása.
- [SPARK-21113]: Az előre beolvasott bemeneti stream támogatása a lemez I/O-költségeinek amortizálásához a kiömlött olvasóban.
- [SPARK-22510][SPARK-22692][SPARK-21871]: Tovább stabilizálja a codegen-keretrendszert, hogy elkerülje a Java-metódus és a Java-fordító állandó készletkorlátjának 64KB-os JVM bájtkód-korlátját.
- [SPARK-23207]: Kijavítottunk egy hosszú ideig fennálló hibát a Sparkban, ahol a DataFrame egymást követő shuffle+újraparticionálása bizonyos műtéti esetekben helytelen válaszokhoz vezethet.
- [SPARK-22062][SPARK-17788][SPARK-21907]: Az OOM-ok különböző okainak kijavítása.
- [SPARK-22489][SPARK-22916][SPARK-22895][SPARK-20758][SPARK-22266][SPARK-19122][SPARK-22662][SPARK-21652]: A szabályalapú optimalizáló és tervező fejlesztései.
Egyéb jelentős változások
- [SPARK-20236]: A Hive-stílusú dinamikus partíció támogatása felülírja a szemantikát.
- [SPARK-4131]: Az adatok közvetlenül a fájlrendszerbe való írásának támogatása
INSERT OVERWRITE DIRECTORY
egy lekérdezésből. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: UDF-fejlesztések.
- [SPARK-20463][SPARK-19951][SPARK-22934][SPARK-21055][SPARK-17729][SPARK-20962][SPARK-20963][SPARK-20841][SPARK-17642][SPARK-22475][SPARK-22934]: Továbbfejlesztett ANSI SQL-megfelelőség és Hive-kompatibilitás.
- [SPARK-20746]: Átfogóbb beépített SQL-függvények.
- [SPARK-21485]: Spark SQL-dokumentáció létrehozása beépített függvényekhez.
- [SPARK-19810]: Távolítsa el a Scala
2.10
támogatását. - [SPARK-22324]: Frissítse a nyílra és a
0.8.0
Nettyre.4.1.17
Strukturált streamelés
Folyamatos feldolgozás
- Egy új végrehajtási motor, amely csak egyetlen felhasználói kódsor módosításával képes streamelési lekérdezéseket végrehajtani ezredmásodperc alatti végpontok közötti késéssel. További információért tekintse meg a programozási útmutatót.
Stream-Stream-illesztések
- Két adatfolyam összekapcsolása, sorok pufferelése, amíg az egyező vonások meg nem érkeznek a másik adatfolyamba. A predikátumok az esemény időoszlopaihoz használhatók a megőrzendő állapot mennyiségének kötéséhez.
Streaming API V2
- Kísérleti API az új forráshoz és fogadókhoz való csatlakoztatáshoz, amely kötegelt, mikro-köteg és folyamatos végrehajtás céljából működik. Ez az API még mindig aktív fejlesztés alatt áll, és kompatibilitástörő változásokra kell számítani.
MLlib
Kiemeli
- Az ML-előrejelzés mostantól a strukturált streameléssel működik, frissített API-k használatával. A részletek a következők.
Új és továbbfejlesztett API-k
- [SPARK-21866]: Beépített támogatás képek DataFrame-be való olvasásához (Scala/Java/Python).
- [SPARK-19634]: DataFrame-függvények leíró összegzési statisztikákhoz vektoroszlopokon (Scala/Java).
- [SPARK-14516]:
ClusteringEvaluator
fürtözési algoritmusok finomhangolására, cosine sziluett és négyzetes euklideszi sziluettmetrikák támogatásához (Scala/Java/Python). - [SPARK-3181]: Robusztus lineáris regresszió Huber-veszteséggel (Scala/Java/Python).
- [SPARK-13969]:
FeatureHasher
transzformátor (Scala/Java/Python). - Több oszlop támogatása több funkciótranszformátorhoz:
- [SPARK-13030]:
OneHotEncoderEstimator
(Scala/Java/Python) - [SPARK-22397]:
QuantileDiscretizer
(Scala/Java) - [SPARK-20542]:
Bucketizer
(Scala/Java/Python)
- [SPARK-13030]:
- [SPARK-21633] és SPARK-21542]: Továbbfejlesztett támogatás egyéni folyamatösszetevőkhöz a Pythonban.
Új funkciók
- [SPARK-21087]:
CrossValidator
ésTrainValidationSplit
minden modellt képes összegyűjteni az illesztéskor (Scala/Java). Ez lehetővé teszi az összes beépített modell vizsgálatát vagy mentését. - [SPARK-19357]: Metaalgoritmusok
CrossValidator
,OneVsRest
TrainValidationSplit
támogatják a párhuzamos paramot több almodell párhuzamos Spark-feladatokba való illesztéséhez. - [SPARK-17139]: Modellösszesítés többnomiális logisztikai regresszióhoz (Scala/Java/Python)
- [SPARK-18710]: Eltolás hozzáadása a GLM-ben.
- [SPARK-20199]: Param hozzáadva
featureSubsetStrategy
a következőhözGBTClassifier
: ésGBTRegressor
. A funkciók almintaként való használata jelentősen javíthatja a betanítási sebességet; ez a lehetőség volt a fő erőssége .xgboost
Egyéb jelentős változások
- [SPARK-22156]: Rögzített
Word2Vec
tanulási sebesség skálázása iterációkkalnum
. Az új tanulási arány az eredetiWord2Vec
C-kódnak megfelelően van beállítva, és jobb eredményeket kell adnia a betanításból. - [SPARK-22289]: A mátrixparaméterek támogatásának hozzáadása
JSON
(Ez kijavított egy hibát az ML-megőrzéshezLogisticRegressionModel
az együtthatókra vonatkozó korlátok használatakor.) - [SPARK-22700]:
Bucketizer.transform
helytelenül ejti a sorokat tartalmazóNaN
sort. Ha a ParamhandleInvalid
"kihagyás"Bucketizer
értékre lett állítva, a bemeneti oszlopban érvényes értékkel rendelkező sort csepegtet, ha egy másik (irreleváns) oszlopban vanNaN
érték. - [SPARK-22446]: A katalizátor-optimalizáló néha helytelen "Nem látott címke" kivételt okozott
StringIndexerModel
, amikorhandleInvalid
"hiba" értékre volt beállítva. Ez a szűrt adatok esetében a predikátum leküldése miatt fordulhat elő, ami akkor is hibákat okoz, ha érvénytelen sorok már szűrve lettek a bemeneti adathalmazból. - [SPARK-21681]: Kijavítottunk egy peremes esethibát a többnomiális logisztikai regresszióban, amely helytelen együtthatót eredményezett, amikor egyes funkciókban nulla volt a variancia.
- Főbb optimalizálások:
- [SPARK-22707]: Csökkentett memóriahasználat a
CrossValidator
. - [SPARK-22949]: Csökkentett memóriahasználat a
TrainValidationSplit
. - [SPARK-21690]:
Imputer
egyetlen adatátadással kell betanítása. - [SPARK-14371]:
OnlineLDAOptimizer
nem gyűjt statisztikákat az illesztőprogramnak minden mini köteghez.
- [SPARK-22707]: Csökkentett memóriahasználat a
SparkR
A SparkR fő fókusza a 2.3.0-s kiadásban az UDF-ek stabilitásának javítása és számos új SparkR-burkoló hozzáadása a meglévő API-k köré:
Főbb funkciók
- Továbbfejlesztett függvényparitás az SQL és az R között
- [SPARK-22933]: Strukturált streamELÉSI API-k a ,
trigger
éspartitionBy
stream-stream illesztésekhezwithWatermark
. - [SPARK-21266]: SparkR UDF DDL formátumú sématámogatással.
- [SPARK-20726][SPARK-22924][SPARK-22843]: Számos új Dataframe API Burkoló.
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: Számos új SparkML API Burkoló.
GraphX
Optimalizáció
- [SPARK-5484]: A Pregel mostantól rendszeresen ellenőrzi a pontokat, hogy elkerülje azokat
StackOverflowErrors
. - [SPARK-21491]: Kisebb teljesítménynövekedés több helyen.
Elavult funkciók
Python
- [SPARK-23122]: A PySparkban és
Catalog
a PySparkban találhatóSQLContext
UDF-ek elavultakregister*
MLlib
- [SPARK-13030]:
OneHotEncoder
elavult, és a 3.0-s verzióban el lesz távolítva. Ezt felváltotta az újOneHotEncoderEstimator
.OneHotEncoderEstimator
3.0-s verzióra lesz átnevezveOneHotEncoder
(deOneHotEncoderEstimator
aliasként marad).
Viselkedésváltozások
SparkSQL
- [SPARK-22036]: Alapértelmezés szerint a tizedesvesszők közötti aritmetikai műveletek kerekített értéket adnak vissza, ha pontos ábrázolás
NULL
nem lehetséges (a korábbi verziókban való visszatérés helyett) - [SPARK-22937]: Ha minden bemenet bináris, az SQL
elt()
bináris kimenetet ad vissza. Ellenkező esetben sztringként tér vissza. A korábbi verziókban mindig sztringként ad vissza, a bemeneti típusoktól függetlenül. - [SPARK-22895]: Az illesztés/szűrő determinisztikus predikátumai, amelyek az első nem determinisztikus predikátumok után vannak, a gyermek operátorokon keresztül is le-/le lesznek küldve, ha lehetséges. A korábbi verziókban ezek a szűrők nem voltak jogosultak a predikátum leküldésére.
- [SPARK-22771]: Ha minden bemenet bináris,
functions.concat()
bináris kimenetet ad vissza. Ellenkező esetben sztringként tér vissza. A korábbi verziókban mindig sztringként ad vissza, a bemeneti típusoktól függetlenül. - [SPARK-22489]: Ha az illesztőoldalak bármelyike közvetíthető, inkább a szórási tippben explicit módon megadott táblázatot szeretnénk közvetíteni.
- [SPARK-22165]: A partícióoszlopok következtetése korábban helytelen gyakori típust talált a különböző következtetési típusok esetében. Korábban például
double
a típus és a típus közös típusadouble
date
lett. Most már megtalálja az ilyen ütközések megfelelő gyakori típusát. A részletekért tekintse meg az áttelepítési útmutatót. - [SPARK-22100]: A
percentile_approx
függvény korábban elfogadtanumeric
a típusbemenetet és adouble
kimeneti típuseredményeket. Mostantól támogatjadate
a típusokat,timestamp
típusokat ésnumeric
típusokat bemeneti típusokként. Az eredmény típusa is ugyanaz, mint a bemeneti típus, ami a percentilisek esetében ésszerűbb. - [SPARK-21610]: a nyers JSON-/CSV-fájlok lekérdezései nem engedélyezettek, ha a hivatkozott oszlopok csak a belső sérült rekordoszlopot tartalmazzák (alapértelmezés szerint elnevezve
_corrupt_record
). Ehelyett gyorsítótárazhatja vagy mentheti az elemezt eredményeket, majd elküldheti ugyanazt a lekérdezést. - [SPARK-23421]: A Spark 2.2.1 és 2.3.0 óta a séma mindig futásidőben következik be, amikor az adatforrástáblák a partíciós sémában és az adatsémában is létező oszlopokkal rendelkeznek. A következtetett séma nem rendelkezik particionált oszlopokkal. A táblázat olvasásakor a Spark az adatforrásfájlokban tárolt értékek helyett az átfedésben lévő oszlopok partícióértékeit tartja tiszteletben. A 2.2.0 és a 2.1.x kiadásban a rendszer particionálta a következtetett sémát, de a tábla adatai nem láthatók a felhasználók számára (vagyis az eredményhalmaz üres).
PySpark
- [SPARK-19732]:
na.fill()
vagyfillna
logikai értéket is elfogad, és a null értékeket logikai értékekre cseréli. A korábbi Spark-verziókban a PySpark egyszerűen figyelmen kívül hagyja, és visszaadja az eredeti Adatkészletet/DataFrame-et. - [SPARK-22395]: pandas
0.19.2
vagy upper szükséges a pandashoz kapcsolódó funkciók, példáultoPandas
pandascreateDataFrame
DataFrame stb. használatához. - [SPARK-22395]: A pandashoz kapcsolódó funkciók időbélyeg-értékeinek viselkedését úgy módosították, hogy figyelembe veszik a munkamenet időzónáját, amelyet a korábbi verziók figyelmen kívül hagynak.
- [SPARK-23328]:
df.replace
nem hagyja kivalue
, hato_replace
nem szótár. Korábban ki lehetett hagyni a többi esetben,value
és alapértelmezés szerint voltNone
, ami ellentétes intuitív és hibalehetőséget jelent.
MLlib
- Kompatibilitástörő API-módosítások: A logisztikai regressziós modell összefoglalóinak osztály- és tulajdonsághierarchiája tisztább lett, és jobban megfelel a többosztályos összegzés hozzáadásának. Ez egy kompatibilitástörő változás a felhasználói kódnál, amely
LogisticRegressionTrainingSummary
BinaryLogisticRegressionTrainingSummary
egy . A felhasználóknak inkább a módszert kell használniukmodel.binarySummary
. További részletekért tekintse meg a [SPARK-17139] című témakört (vegye figyelembe, hogy ez egy@Experimental
API). Ez nem érinti a Python-összefoglaló metódust, amely továbbra is megfelelően működik a többnomiális és a bináris esetek esetében is. - [SPARK-21806]: az
BinaryClassificationMetrics.pr()
első pont (0.0, 1.0) félrevezető, és helyébe a (0,0, p) lép, ahol a p pontosság megegyezik a legalacsonyabb visszahívási ponttal. - [SPARK-16957]: A döntési fák mostantól súlyozott középpontokat használnak felosztott értékek kiválasztásakor. Ez megváltoztathatja a modell betanításának eredményeit.
- [SPARK-14657]:
RFormula
metszés nélkül mostantól a referenciakategória jelenik meg sztringkifejezések kódolásakor, hogy megfeleljen a natív R-viselkedésnek. Ez megváltoztathatja a modell betanításának eredményeit. - [SPARK-21027]: A használt
OneVsRest
alapértelmezett párhuzamosság értéke 1 (azaz soros). A 2.2-es és korábbi verziókban a párhuzamosság szintje a Scala alapértelmezett szálkészlet-méretére lett beállítva. Ez megváltoztathatja a teljesítményt. - [SPARK-21523]: A Breeze frissítése a következőre
0.13.2
: . Ez tartalmazott egy fontos hibajavítást az L-BFGS erős Wolfe-vonalbeli keresésében. - [SPARK-15526]: A JPMML-függőség mostantól árnyékolva van.
- A hibák javításából eredő viselkedésbeli változásokról a "Hibajavítások" című szakaszban is olvashat.
Ismert problémák
- [SPARK-23523][SQL]: A szabály
OptimizeMetadataOnlyQuery
által okozott helytelen eredmény. - [SPARK-23406]: Hibák a stream-stream öncsatlakozásokban.
Karbantartási frissítések
Lásd a Databricks Runtime 4.0 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Scala: 2.11.8
- Python: 2.7.12 (vagy 3.5.2 Python 3 használata esetén)
- R: R 3.4.3-es verzió (2017-11-30)
- GPU-fürtök: A következő NVIDIA GPU-kódtárak vannak telepítve:
- Tesla driver 375.66
- CUDA 8.0
- CUDNN 6.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | minősítés | 2016.2.28 | cffi | 1.7.0 |
karakterkészlet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kriptográfia | 1,5 | biciklista | 0.10.0 | Cython | 0.24.1 |
lakberendező | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | határidőügylet | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Párna | 3.3.1 |
mag | 9.0.1 | réteg | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
kérelmek | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | súrol | 0.32 | tengeri | 0.7.1 |
setuptools | 38.5.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Hat | 1.10.0 | statsmodels | 0.6.1 |
tornádó | 4.5.3 | árulók | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | kerék | 0.30.0 |
wsgiref | 0.1.2 |
Telepített R-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.1 |
alap | 3.4.3 | BH | 1.65.0-1 | bindr | 0,1 |
bindrcpp | 0,2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.0 | indítás | 1.3-20 |
főz | 1.0-6 | seprű | 0.4.3 | autó | 2.1-6 |
kalap | 6.0-77 | chron | 2.3-51 | osztály | 7.3-14 |
fürt | 2.0.6 | kódtoolok | 0.2-15 | színtér | 1.3-2 |
commonmark | 1.4 | fordítóprogram | 3.4.3 | zsírkréta | 1.3.4 |
csavarodik | 3,0 | CVST | 0.2-1 | data.table | 1.10.4-3 |
adatkészletek | 3.4.3 | DBI | 0,7 | ddalpha | 1.3.1 |
DEoptimR | 1.0-8 | Desc | 1.1.1 | devtools | 1.13.4 |
dichromat | 2.0-0 | emészt | 0.6.12 | dimRed | 0.1.0 |
doMC | 1.3.4 | dplyr | 0.7.4 | DRR | 0.0.2 |
foreach | 1.4.3 | külföldi | 0.8-69 | gbm | 2.1.3 |
ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
ragasztó | 1.2.0 | Gower | 0.1.2 | grafika | 3.4.3 |
grDevices | 3.4.3 | rács | 3.4.3 | gsubfn | 0.6-6 |
gtable | 0.2.0 | h2o | 3.16.0.1 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
iterátorok | 1.0.8 | jsonlite | 1,5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | címkézés | 0.3 | rács | 0.20-35 |
láva | 1.5.1 | lazyeval | 0.2.1 | kicsi | 0.3.2 |
lme4 | 1.1-14 | lubridate | 1.7.1 | magrittr | 1,5 |
mapproj | 1.2-5 | Térképek | 3.2.0 | TÖMEG | 7.3-48 |
Mátrix | 1.2-11 | MatrixModels | 0.4-1 | memoise | 1.1.0 |
metódusok | 3.4.3 | mgcv | 1.8-23 | MIME | 0,5 |
minqa | 1.2.4 | mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
munsell | 0.4.3 | mvtnorm | 1.0-6 | nlme | 3.1-131 |
nloptr | 1.0.4 | nnet | 7.3-12 | numDeriv | 2016.8-1 |
openssl | 0.9.9 | parallel | 3.4.3 | pbkrtest | 0.4-7 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
rétegelt | 1.8.4 | dicséret | 1.0.0 | Proc | 1.10.0 |
prodlim | 1.6.1 | Proto | 1.0.0 | Psych | 1.7.8 |
purrr | 0.2.4 | quantreg | 5.34 | R.methodsS3 | 1.7.1 |
R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
randomForest | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
receptek | 0.1.1 | újraformázás2 | 1.4.2 | rlang | 0.1.4 |
robustbase | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
rpart | 4.1-12 | rprojroot | 1,2 | Rserve | 1.7-3 |
RSQLite | 2,0 | rstudioapi | 0,7 | mérleg | 0.5.0 |
sfsmisc | 1.1-1 | Sp | 1.2-5 | SparkR | 2.3.0 |
SparseM | 1.77 | térbeli | 7.3-11 | splines | 3.4.3 |
sqldf | 0.4-11 | statmod | 1.4.30 | statisztika | 3.4.3 |
statisztikák4 | 3.4.3 | stringi | 1.1.6 | sztring | 1.2.0 |
túlélés | 2.41-3 | tcltk | 3.4.3 | TeachingDemos | 2.10 |
testthat | 1.0.2 | tibble | 1.3.4 | tidyr | 0.7.2 |
tidyselect | 0.2.3 | timeDate | 3042.101 | eszközök | 3.4.3 |
eszközök | 3.4.3 | viridisLite | 0.2.0 | bajusz | 0.3-2 |
withr | 2.1.0 | xml2 | 1.1.1 |
Telepített Java- és Scala-kódtárak (Scala 2.11-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
com.amazonaws | aws-java-sdk-config | 1.11.253 |
com.amazonaws | aws-java-sdk-core | 1.11.253 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
com.amazonaws | aws-java-sdk-directory | 1.11.253 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
com.amazonaws | aws-java-sdk-efs | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.253 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
com.amazonaws | aws-java-sdk-emr | 1.11.253 |
com.amazonaws | aws-java-sdk-glacier | 1.11.253 |
com.amazonaws | aws-java-sdk-iam | 1.11.253 |
com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.253 |
com.amazonaws | aws-java-sdk-kms | 1.11.253 |
com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
com.amazonaws | aws-java-sdk-logs | 1.11.253 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.253 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
com.amazonaws | aws-java-sdk-rds | 1.11.253 |
com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
com.amazonaws | aws-java-sdk-ses | 1.11.253 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
com.amazonaws | aws-java-sdk-sns | 1.11.253 |
com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.253 |
com.amazonaws | aws-java-sdk-sts | 1.11.253 |
com.amazonaws | aws-java-sdk-support | 1.11.253 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
com.amazonaws | jmespath-java | 1.11.253 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | patak | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.3.0-db1-spark2.3 |
com.databricks | dbml-local_2.11-tesztek | 0.3.0-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natívok | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natívok | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1,1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.0.11 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metrikamag | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | gyűjtő | 0,7 |
javax.activation | aktiválás | 1.1.1 |
javax.annotation | javax.annotation-api | 1,2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | nyílformátum | 0.8.0 |
org.apache.arrow | nyíl-memória | 0.8.0 |
org.apache.arrow | nyíl-vektor | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | kalcit-avatica | 1.2.0-inkubálás |
org.apache.calcite | kalcitmag | 1.2.0-inkubálás |
org.apache.calcite | calcite-linq4j | 1.2.0-inkubálás |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurátor-ügyfél | 2.7.1 |
org.apache.curator | kurátor-keretrendszer | 2.7.1 |
org.apache.curator | kurátor-receptek | 2.7.1 |
org.apache.derby | keménykalap | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-inkubálás |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | borostyán | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | parquet-kódolás | 1.8.2-databricks1 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | móló-folytatás | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | móló plusz | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-lokátor | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Végleges |
org.iq80.snappy | rámenős | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | Használatlan | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | rugós teszt | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | makró-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |