Megosztás a következőn keresztül:


Databricks Runtime 4.0 (EoS)

Feljegyzés

A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.

A Databricks 2018 márciusában adta ki ezt a verziót.

Fontos

Ez a kiadás 2018. november 1-jén elavult. A Databricks runtime-elavulási szabályzatáról és ütemezéséről további információt a Databricks támogatási életciklusában talál.

Az alábbi kibocsátási megjegyzések az Apache Spark által üzemeltetett Databricks Runtime 4.0-ról nyújtanak információkat.

Változások és fejlesztések

  • A JSON-adatforrás most megpróbálja automatikusan észlelni a kódolást, és nem feltételezi, hogy UTF-8. Ha az automatikus észlelés sikertelen, a felhasználók megadhatják a karakterkészlet beállítását egy bizonyos kódolás kényszerítéséhez. Lásd: Karakterkészlet automatikus észlelése.
  • A Spark MLlib-folyamatok strukturált streamelésben való használatával történő pontozás és előrejelzés teljes mértékben támogatott.
  • A Databricks ML-modell exportálása teljes mértékben támogatott. Ezzel a funkcióval betanított egy Spark MLlib-modellt a Databricksen, exportálhatja egy függvényhívással, és használhat egy Databricks-kódtárat a választott rendszerben a modell importálásához és új adatok pontozásához.
  • Egy új Spark-adatforrás-implementáció skálázható olvasási/írási hozzáférést biztosít az Azure Synapse Analyticshez. Lásd: Spark – Synapse Analytics-összekötő.
  • A függvény sémája from_json mostantól mindig null értékűre lesz konvertálva. Más szóval minden mező, beleértve a beágyazott mezőket is, null értékű. Ez biztosítja, hogy az adatok kompatibilisek a sémával, megakadályozva a sérülést az adatok parquetre írása után, ha egy mező hiányzik az adatokból, és a felhasználó által megadott séma nem null értékűként deklarálja a mezőt.
  • Frissített néhány telepített Python-kódtárat:
    • határidős: 3.1.1-től 3.2.0-ra
    • pandas: 0.18.1-től 0.19.2-től
    • pyarrow: 0.4.1-től 0.8.0-ra
    • setuptools: 38.2.3-tól 38.5.1-től
    • tornádó: 4.5.2–4.5.3
  • Több telepített R-kódtárat frissített. Lásd: Telepített R-kódtárak.
  • Az AWS Java SDK 1.11.126-ról 1.11.253-ra frissült.
  • Frissített SQL Server JDBC-illesztő 6.1.0.jre8-ról 6.2.2.jre8-ra.
  • Frissített PostgreSQL JDBC-illesztő a 9.4-1204-jdbc41-ről 42.1.4-re.

Apache Spark

A Databricks Runtime 4.0 tartalmazza az Apache Spark 2.3.0-t.

Core, PySpark és Spark SQL

Főbb funkciók

  • Vektorizált ORC-olvasó: [SPARK-16060]: Támogatja az új ORC-olvasót, amely jelentősen javítja az ORC-vizsgálat átviteli sebességét vektorizálással (2-5x). Az olvasó engedélyezéséhez a felhasználók beállíthatják a következőt spark.sql.orc.impl native: .
  • Spark History Server V2: [SPARK-18085]: Egy új Spark History Server (SHS) háttérrendszer, amely hatékonyabb eseménytárolási mechanizmussal jobb méretezhetőséget biztosít a nagy méretű alkalmazások számára.
  • Adatforrás API V2: [SPARK-15689][SPARK-22386]: Kísérleti API a Spark új adatforrásainak csatlakoztatásához. Az új API megpróbálja kezelni a V1 API számos korlátozását, és célja, hogy megkönnyítse a nagy teljesítményű, könnyen karbantartható és bővíthető külső adatforrások fejlesztését. Ez az API még mindig aktív fejlesztés alatt áll, és kompatibilitástörő változásokra kell számítani.
  • PySpark-teljesítménybeli fejlesztések: [SPARK-22216][SPARK-21187]: Jelentős fejlesztések a Python teljesítményében és együttműködésében gyors adat szerializálással és vektorizált végrehajtással.

Teljesítmény és stabilitás

Egyéb jelentős változások

Strukturált streamelés

Folyamatos feldolgozás

  • Egy új végrehajtási motor, amely csak egyetlen felhasználói kódsor módosításával képes streamelési lekérdezéseket végrehajtani ezredmásodperc alatti végpontok közötti késéssel. További információért tekintse meg a programozási útmutatót.

Stream-Stream-illesztések

  • Két adatfolyam összekapcsolása, sorok pufferelése, amíg az egyező vonások meg nem érkeznek a másik adatfolyamba. A predikátumok az esemény időoszlopaihoz használhatók a megőrzendő állapot mennyiségének kötéséhez.

Streaming API V2

  • Kísérleti API az új forráshoz és fogadókhoz való csatlakoztatáshoz, amely kötegelt, mikro-köteg és folyamatos végrehajtás céljából működik. Ez az API még mindig aktív fejlesztés alatt áll, és kompatibilitástörő változásokra kell számítani.

MLlib

Kiemeli

  • Az ML-előrejelzés mostantól a strukturált streameléssel működik, frissített API-k használatával. A részletek a következők.

Új és továbbfejlesztett API-k

  • [SPARK-21866]: Beépített támogatás képek DataFrame-be való olvasásához (Scala/Java/Python).
  • [SPARK-19634]: DataFrame-függvények leíró összegzési statisztikákhoz vektoroszlopokon (Scala/Java).
  • [SPARK-14516]: ClusteringEvaluator fürtözési algoritmusok finomhangolására, cosine sziluett és négyzetes euklideszi sziluettmetrikák támogatásához (Scala/Java/Python).
  • [SPARK-3181]: Robusztus lineáris regresszió Huber-veszteséggel (Scala/Java/Python).
  • [SPARK-13969]: FeatureHasher transzformátor (Scala/Java/Python).
  • Több oszlop támogatása több funkciótranszformátorhoz:
  • [SPARK-21633] és SPARK-21542]: Továbbfejlesztett támogatás egyéni folyamatösszetevőkhöz a Pythonban.

Új funkciók

  • [SPARK-21087]: CrossValidator és TrainValidationSplit minden modellt képes összegyűjteni az illesztéskor (Scala/Java). Ez lehetővé teszi az összes beépített modell vizsgálatát vagy mentését.
  • [SPARK-19357]: MetaalgoritmusokCrossValidator,OneVsRest TrainValidationSplittámogatják a párhuzamos paramot több almodell párhuzamos Spark-feladatokba való illesztéséhez.
  • [SPARK-17139]: Modellösszesítés többnomiális logisztikai regresszióhoz (Scala/Java/Python)
  • [SPARK-18710]: Eltolás hozzáadása a GLM-ben.
  • [SPARK-20199]: Param hozzáadva featureSubsetStrategy a következőhöz GBTClassifier : és GBTRegressor. A funkciók almintaként való használata jelentősen javíthatja a betanítási sebességet; ez a lehetőség volt a fő erőssége .xgboost

Egyéb jelentős változások

  • [SPARK-22156]: Rögzített Word2Vec tanulási sebesség skálázása iterációkkal num . Az új tanulási arány az eredeti Word2Vec C-kódnak megfelelően van beállítva, és jobb eredményeket kell adnia a betanításból.
  • [SPARK-22289]: A mátrixparaméterek támogatásának hozzáadása JSON (Ez kijavított egy hibát az ML-megőrzéshez LogisticRegressionModel az együtthatókra vonatkozó korlátok használatakor.)
  • [SPARK-22700]: Bucketizer.transform helytelenül ejti a sorokat tartalmazó NaNsort. Ha a Param handleInvalid "kihagyás" Bucketizer értékre lett állítva, a bemeneti oszlopban érvényes értékkel rendelkező sort csepegtet, ha egy másik (irreleváns) oszlopban van NaN érték.
  • [SPARK-22446]: A katalizátor-optimalizáló néha helytelen "Nem látott címke" kivételt okozott StringIndexerModel , amikor handleInvalid "hiba" értékre volt beállítva. Ez a szűrt adatok esetében a predikátum leküldése miatt fordulhat elő, ami akkor is hibákat okoz, ha érvénytelen sorok már szűrve lettek a bemeneti adathalmazból.
  • [SPARK-21681]: Kijavítottunk egy peremes esethibát a többnomiális logisztikai regresszióban, amely helytelen együtthatót eredményezett, amikor egyes funkciókban nulla volt a variancia.
  • Főbb optimalizálások:
    • [SPARK-22707]: Csökkentett memóriahasználat a CrossValidator.
    • [SPARK-22949]: Csökkentett memóriahasználat a TrainValidationSplit.
    • [SPARK-21690]: Imputer egyetlen adatátadással kell betanítása.
    • [SPARK-14371]: OnlineLDAOptimizer nem gyűjt statisztikákat az illesztőprogramnak minden mini köteghez.

SparkR

A SparkR fő fókusza a 2.3.0-s kiadásban az UDF-ek stabilitásának javítása és számos új SparkR-burkoló hozzáadása a meglévő API-k köré:

Főbb funkciók

GraphX

Optimalizáció

  • [SPARK-5484]: A Pregel mostantól rendszeresen ellenőrzi a pontokat, hogy elkerülje azokat StackOverflowErrors.
  • [SPARK-21491]: Kisebb teljesítménynövekedés több helyen.

Elavult funkciók

Python

  • [SPARK-23122]: A PySparkban és Catalog a PySparkban található SQLContext UDF-ek elavultak register*

MLlib

  • [SPARK-13030]: OneHotEncoder elavult, és a 3.0-s verzióban el lesz távolítva. Ezt felváltotta az új OneHotEncoderEstimator. OneHotEncoderEstimator 3.0-s verzióra lesz átnevezve OneHotEncoder (de OneHotEncoderEstimator aliasként marad).

Viselkedésváltozások

SparkSQL

  • [SPARK-22036]: Alapértelmezés szerint a tizedesvesszők közötti aritmetikai műveletek kerekített értéket adnak vissza, ha pontos ábrázolás NULL nem lehetséges (a korábbi verziókban való visszatérés helyett)
  • [SPARK-22937]: Ha minden bemenet bináris, az SQL elt() bináris kimenetet ad vissza. Ellenkező esetben sztringként tér vissza. A korábbi verziókban mindig sztringként ad vissza, a bemeneti típusoktól függetlenül.
  • [SPARK-22895]: Az illesztés/szűrő determinisztikus predikátumai, amelyek az első nem determinisztikus predikátumok után vannak, a gyermek operátorokon keresztül is le-/le lesznek küldve, ha lehetséges. A korábbi verziókban ezek a szűrők nem voltak jogosultak a predikátum leküldésére.
  • [SPARK-22771]: Ha minden bemenet bináris, functions.concat() bináris kimenetet ad vissza. Ellenkező esetben sztringként tér vissza. A korábbi verziókban mindig sztringként ad vissza, a bemeneti típusoktól függetlenül.
  • [SPARK-22489]: Ha az illesztőoldalak bármelyike közvetíthető, inkább a szórási tippben explicit módon megadott táblázatot szeretnénk közvetíteni.
  • [SPARK-22165]: A partícióoszlopok következtetése korábban helytelen gyakori típust talált a különböző következtetési típusok esetében. Korábban például double a típus és a típus közös típusa double date lett. Most már megtalálja az ilyen ütközések megfelelő gyakori típusát. A részletekért tekintse meg az áttelepítési útmutatót.
  • [SPARK-22100]: A percentile_approx függvény korábban elfogadta numeric a típusbemenetet és a double kimeneti típuseredményeket. Mostantól támogatja date a típusokat, timestamp típusokat és numeric típusokat bemeneti típusokként. Az eredmény típusa is ugyanaz, mint a bemeneti típus, ami a percentilisek esetében ésszerűbb.
  • [SPARK-21610]: a nyers JSON-/CSV-fájlok lekérdezései nem engedélyezettek, ha a hivatkozott oszlopok csak a belső sérült rekordoszlopot tartalmazzák (alapértelmezés szerint elnevezve _corrupt_record ). Ehelyett gyorsítótárazhatja vagy mentheti az elemezt eredményeket, majd elküldheti ugyanazt a lekérdezést.
  • [SPARK-23421]: A Spark 2.2.1 és 2.3.0 óta a séma mindig futásidőben következik be, amikor az adatforrástáblák a partíciós sémában és az adatsémában is létező oszlopokkal rendelkeznek. A következtetett séma nem rendelkezik particionált oszlopokkal. A táblázat olvasásakor a Spark az adatforrásfájlokban tárolt értékek helyett az átfedésben lévő oszlopok partícióértékeit tartja tiszteletben. A 2.2.0 és a 2.1.x kiadásban a rendszer particionálta a következtetett sémát, de a tábla adatai nem láthatók a felhasználók számára (vagyis az eredményhalmaz üres).

PySpark

  • [SPARK-19732]: na.fill() vagy fillna logikai értéket is elfogad, és a null értékeket logikai értékekre cseréli. A korábbi Spark-verziókban a PySpark egyszerűen figyelmen kívül hagyja, és visszaadja az eredeti Adatkészletet/DataFrame-et.
  • [SPARK-22395]: pandas 0.19.2 vagy upper szükséges a pandashoz kapcsolódó funkciók, például toPandaspandas createDataFrame DataFrame stb. használatához.
  • [SPARK-22395]: A pandashoz kapcsolódó funkciók időbélyeg-értékeinek viselkedését úgy módosították, hogy figyelembe veszik a munkamenet időzónáját, amelyet a korábbi verziók figyelmen kívül hagynak.
  • [SPARK-23328]: df.replace nem hagyja ki value , ha to_replace nem szótár. Korábban ki lehetett hagyni a többi esetben, value és alapértelmezés szerint volt None , ami ellentétes intuitív és hibalehetőséget jelent.

MLlib

  • Kompatibilitástörő API-módosítások: A logisztikai regressziós modell összefoglalóinak osztály- és tulajdonsághierarchiája tisztább lett, és jobban megfelel a többosztályos összegzés hozzáadásának. Ez egy kompatibilitástörő változás a felhasználói kódnál, amely LogisticRegressionTrainingSummary BinaryLogisticRegressionTrainingSummaryegy . A felhasználóknak inkább a módszert kell használniuk model.binarySummary . További részletekért tekintse meg a [SPARK-17139] című témakört (vegye figyelembe, hogy ez egy @Experimental API). Ez nem érinti a Python-összefoglaló metódust, amely továbbra is megfelelően működik a többnomiális és a bináris esetek esetében is.
  • [SPARK-21806]: az BinaryClassificationMetrics.pr()első pont (0.0, 1.0) félrevezető, és helyébe a (0,0, p) lép, ahol a p pontosság megegyezik a legalacsonyabb visszahívási ponttal.
  • [SPARK-16957]: A döntési fák mostantól súlyozott középpontokat használnak felosztott értékek kiválasztásakor. Ez megváltoztathatja a modell betanításának eredményeit.
  • [SPARK-14657]: RFormula metszés nélkül mostantól a referenciakategória jelenik meg sztringkifejezések kódolásakor, hogy megfeleljen a natív R-viselkedésnek. Ez megváltoztathatja a modell betanításának eredményeit.
  • [SPARK-21027]: A használt OneVsRest alapértelmezett párhuzamosság értéke 1 (azaz soros). A 2.2-es és korábbi verziókban a párhuzamosság szintje a Scala alapértelmezett szálkészlet-méretére lett beállítva. Ez megváltoztathatja a teljesítményt.
  • [SPARK-21523]: A Breeze frissítése a következőre 0.13.2: . Ez tartalmazott egy fontos hibajavítást az L-BFGS erős Wolfe-vonalbeli keresésében.
  • [SPARK-15526]: A JPMML-függőség mostantól árnyékolva van.
  • A hibák javításából eredő viselkedésbeli változásokról a "Hibajavítások" című szakaszban is olvashat.

Ismert problémák

  • [SPARK-23523][SQL]: A szabály OptimizeMetadataOnlyQueryáltal okozott helytelen eredmény.
  • [SPARK-23406]: Hibák a stream-stream öncsatlakozásokban.

Karbantartási frissítések

Lásd a Databricks Runtime 4.0 karbantartási frissítéseit.

Rendszerkörnyezet

  • Operációs rendszer: Ubuntu 16.04.4 LTS
  • Java: 1.8.0_151
  • Scala: 2.11.8
  • Python: 2.7.12 (vagy 3.5.2 Python 3 használata esetén)
  • R: R 3.4.3-es verzió (2017-11-30)
  • GPU-fürtök: A következő NVIDIA GPU-kódtárak vannak telepítve:
    • Tesla driver 375.66
    • CUDA 8.0
    • CUDNN 6.0

Telepített Python-kódtárak

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
ansi2html 1.1.1 argparse 1.2.1 backports-abc 0,5
boto 2.42.0 boto3 1.4.1 botocore 1.4.70
brewer2mpl 1.4.1 minősítés 2016.2.28 cffi 1.7.0
karakterkészlet 2.3.0 colorama 0.3.7 configobj 5.0.6
kriptográfia 1,5 biciklista 0.10.0 Cython 0.24.1
lakberendező 4.0.10 docutils 0,14 enum34 1.1.6
et-xmlfile 1.0.1 freetype-py 1.0.2 funcsigs 1.0.2
fusepy 2.0.4 határidőügylet 3.2.0 ggplot 0.6.8
html5lib 0,999 idna 2.1 ipaddress 1.0.16
ipython 2.2.0 ipython-genutils 0.1.0 jdcal 1,2
Jinja2 2.8 jmespath 0.9.0 llvmlite 0.13.0
lxml 3.6.4 MarkupSafe 0.23 matplotlib 1.5.3
mpld3 0,2 msgpack-python 0.4.7 ndg-httpsclient 0.3.3
numba 0.28.1 numpy 1.11.1 openpyxl 2.3.2
pandas 0.19.2 pathlib2 2.1.0 Patsy 0.4.1
pexpect 4.0.1 pickleshare 0.7.4 Párna 3.3.1
mag 9.0.1 réteg 3.9 prompt-toolkit 1.0.7
psycopg2 2.6.2 ptyprocess 0.5.1 py4j 0.10.3
pyarrow 0.8.0 pyasn1 0.1.9 pycparser 2.14
Pygments 2.1.3 PyGObject 3.20.0 pyOpenSSL 16.0.0
pyparsing 2.2.0 pypng 0.0.18 Python 2.7.12
python-dateutil 2.5.3 python-geohash 0.8.5 pytz 2016.6.1
kérelmek 2.11.1 s3transfer 0.1.9 scikit-learn 0.18.1
scipy 0.18.1 súrol 0.32 tengeri 0.7.1
setuptools 38.5.1 simplejson 3.8.2 simples3 1.0
singledispatch 3.4.0.3 Hat 1.10.0 statsmodels 0.6.1
tornádó 4.5.3 árulók 4.3.0 urllib3 1.19.1
virtualenv 15.0.1 wcwidth 0.1.7 kerék 0.30.0
wsgiref 0.1.2

Telepített R-kódtárak

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
abind 1.4-5 assertthat 0.2.0 backports 1.1.1
alap 3.4.3 BH 1.65.0-1 bindr 0,1
bindrcpp 0,2 bit 1.1-12 bit64 0.9-7
bitops 1.0-6 blob 1.1.0 indítás 1.3-20
főz 1.0-6 seprű 0.4.3 autó 2.1-6
kalap 6.0-77 chron 2.3-51 osztály 7.3-14
fürt 2.0.6 kódtoolok 0.2-15 színtér 1.3-2
commonmark 1.4 fordítóprogram 3.4.3 zsírkréta 1.3.4
csavarodik 3,0 CVST 0.2-1 data.table 1.10.4-3
adatkészletek 3.4.3 DBI 0,7 ddalpha 1.3.1
DEoptimR 1.0-8 Desc 1.1.1 devtools 1.13.4
dichromat 2.0-0 emészt 0.6.12 dimRed 0.1.0
doMC 1.3.4 dplyr 0.7.4 DRR 0.0.2
foreach 1.4.3 külföldi 0.8-69 gbm 2.1.3
ggplot2 2.2.1 git2r 0.19.0 glmnet 2.0-13
ragasztó 1.2.0 Gower 0.1.2 grafika 3.4.3
grDevices 3.4.3 rács 3.4.3 gsubfn 0.6-6
gtable 0.2.0 h2o 3.16.0.1 httr 1.3.1
hwriter 1.3.2 hwriterPlus 1.0-3 ipred 0.9-6
iterátorok 1.0.8 jsonlite 1,5 kernlab 0.9-25
KernSmooth 2.23-15 címkézés 0.3 rács 0.20-35
láva 1.5.1 lazyeval 0.2.1 kicsi 0.3.2
lme4 1.1-14 lubridate 1.7.1 magrittr 1,5
mapproj 1.2-5 Térképek 3.2.0 TÖMEG 7.3-48
Mátrix 1.2-11 MatrixModels 0.4-1 memoise 1.1.0
metódusok 3.4.3 mgcv 1.8-23 MIME 0,5
minqa 1.2.4 mnormt 1.5-5 ModelMetrics 1.1.0
munsell 0.4.3 mvtnorm 1.0-6 nlme 3.1-131
nloptr 1.0.4 nnet 7.3-12 numDeriv 2016.8-1
openssl 0.9.9 parallel 3.4.3 pbkrtest 0.4-7
pkgconfig 2.0.1 pkgKitten 0.1.4 plogr 0.1-1
rétegelt 1.8.4 dicséret 1.0.0 Proc 1.10.0
prodlim 1.6.1 Proto 1.0.0 Psych 1.7.8
purrr 0.2.4 quantreg 5.34 R.methodsS3 1.7.1
R.oo 1.21.0 R.utils 2.6.0 R6 2.2.2
randomForest 4.6-12 RColorBrewer 1.1-2 Rcpp 0.12.14
RcppEigen 0.3.3.3.1 RcppRoll 0.2.2 RCurl 1.95-4.8
receptek 0.1.1 újraformázás2 1.4.2 rlang 0.1.4
robustbase 0.92-8 RODBC 1.3-15 roxygen2 6.0.1
rpart 4.1-12 rprojroot 1,2 Rserve 1.7-3
RSQLite 2,0 rstudioapi 0,7 mérleg 0.5.0
sfsmisc 1.1-1 Sp 1.2-5 SparkR 2.3.0
SparseM 1.77 térbeli 7.3-11 splines 3.4.3
sqldf 0.4-11 statmod 1.4.30 statisztika 3.4.3
statisztikák4 3.4.3 stringi 1.1.6 sztring 1.2.0
túlélés 2.41-3 tcltk 3.4.3 TeachingDemos 2.10
testthat 1.0.2 tibble 1.3.4 tidyr 0.7.2
tidyselect 0.2.3 timeDate 3042.101 eszközök 3.4.3
eszközök 3.4.3 viridisLite 0.2.0 bajusz 0.3-2
withr 2.1.0 xml2 1.1.1

Telepített Java- és Scala-kódtárak (Scala 2.11-fürtverzió)

Csoportazonosító Összetevő azonosítója Verzió
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.7.3
com.amazonaws aws-java-sdk-autoscaling 1.11.253
com.amazonaws aws-java-sdk-cloudformation 1.11.253
com.amazonaws aws-java-sdk-cloudfront 1.11.253
com.amazonaws aws-java-sdk-cloudhsm 1.11.253
com.amazonaws aws-java-sdk-cloudsearch 1.11.253
com.amazonaws aws-java-sdk-cloudtrail 1.11.253
com.amazonaws aws-java-sdk-cloudwatch 1.11.253
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.253
com.amazonaws aws-java-sdk-codedeploy 1.11.253
com.amazonaws aws-java-sdk-cognitoidentity 1.11.253
com.amazonaws aws-java-sdk-cognitosync 1.11.253
com.amazonaws aws-java-sdk-config 1.11.253
com.amazonaws aws-java-sdk-core 1.11.253
com.amazonaws aws-java-sdk-datapipeline 1.11.253
com.amazonaws aws-java-sdk-directconnect 1.11.253
com.amazonaws aws-java-sdk-directory 1.11.253
com.amazonaws aws-java-sdk-dynamodb 1.11.253
com.amazonaws aws-java-sdk-ec2 1.11.253
com.amazonaws aws-java-sdk-ecs 1.11.253
com.amazonaws aws-java-sdk-efs 1.11.253
com.amazonaws aws-java-sdk-elasticache 1.11.253
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.253
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.253
com.amazonaws aws-java-sdk-elastictranscoder 1.11.253
com.amazonaws aws-java-sdk-emr 1.11.253
com.amazonaws aws-java-sdk-glacier 1.11.253
com.amazonaws aws-java-sdk-iam 1.11.253
com.amazonaws aws-java-sdk-importexport 1.11.253
com.amazonaws aws-java-sdk-kinesis 1.11.253
com.amazonaws aws-java-sdk-kms 1.11.253
com.amazonaws aws-java-sdk-lambda 1.11.253
com.amazonaws aws-java-sdk-logs 1.11.253
com.amazonaws aws-java-sdk-machinelearning 1.11.253
com.amazonaws aws-java-sdk-opsworks 1.11.253
com.amazonaws aws-java-sdk-rds 1.11.253
com.amazonaws aws-java-sdk-redshift 1.11.253
com.amazonaws aws-java-sdk-route53 1.11.253
com.amazonaws aws-java-sdk-s3 1.11.253
com.amazonaws aws-java-sdk-ses 1.11.253
com.amazonaws aws-java-sdk-simpledb 1.11.253
com.amazonaws aws-java-sdk-simpleworkflow 1.11.253
com.amazonaws aws-java-sdk-sns 1.11.253
com.amazonaws aws-java-sdk-sqs 1.11.253
com.amazonaws aws-java-sdk-ssm 1.11.253
com.amazonaws aws-java-sdk-storagegateway 1.11.253
com.amazonaws aws-java-sdk-sts 1.11.253
com.amazonaws aws-java-sdk-support 1.11.253
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.253
com.amazonaws jmespath-java 1.11.253
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics patak 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.3.0-db1-spark2.3
com.databricks dbml-local_2.11-tesztek 0.3.0-db1-spark2.3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware kryo-shaded 3.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml osztálytárs 1.0.0
com.fasterxml.jackson.core jackson-annotations 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1,1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natívok 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java-natívok 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava gujávafa 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jamesmurty.utils java-xmlbuilder 1,1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.mchange c3p0 0.9.5.1
com.mchange mchange-commons-java 0.2.10
com.microsoft.azure azure-data-lake-store-sdk 2.0.11
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0.3
com.twitter chill-java 0.8.4
com.twitter chill_2.11 0.8.4
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity univocity-parsers 2.5.9
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 2.4.1
commons-beanutils commons-beanutils 1.7.0
commons-beanutils commons-beanutils-core 1.8.0
commons-cli commons-cli 1,2
commons-codec commons-codec 1.10
commons-collections commons-collections 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
commons-naplózás commons-naplózás 1.1.3
commons-net commons-net 2,2
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift aircompressor 0,8
io.dropwizard.metrics metrikamag 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics metrics-healthchecks 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics metrics-servlets 3.1.5
io.netty netty 3.9.9.Final
io.netty netty-all 4.1.17.Final
io.prometheus simpleclient 0.0.16
io.prometheus simpleclient_common 0.0.16
io.prometheus simpleclient_dropwizard 0.0.16
io.prometheus simpleclient_servlet 0.0.16
io.prometheus.jmx gyűjtő 0,7
javax.activation aktiválás 1.1.1
javax.annotation javax.annotation-api 1,2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1,1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2,11
joda-time joda-time 2.9.3
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-properties 1.1.5
net.iharder base64 2.3.8
net.java.dev.jets3t jets3t 0.9.4
net.razorvine pyrolite 4.13
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4.7
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow nyílformátum 0.8.0
org.apache.arrow nyíl-memória 0.8.0
org.apache.arrow nyíl-vektor 0.8.0
org.apache.avro avro 1.7.7
org.apache.avro avro-ipc 1.7.7
org.apache.avro avro-ipc-tests 1.7.7
org.apache.avro avro-mapred-hadoop2 1.7.7
org.apache.calcite kalcit-avatica 1.2.0-inkubálás
org.apache.calcite kalcitmag 1.2.0-inkubálás
org.apache.calcite calcite-linq4j 1.2.0-inkubálás
org.apache.commons commons-compress 1.4.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3,5
org.apache.commons commons-math3 3.4.1
org.apache.curator kurátor-ügyfél 2.7.1
org.apache.curator kurátor-keretrendszer 2.7.1
org.apache.curator kurátor-receptek 2.7.1
org.apache.derby keménykalap 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop hadoop-client 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core 3.1.0-inkubálás
org.apache.httpcomponents httpclient 4.5.4
org.apache.httpcomponents httpcore 4.4.8
org.apache.ivy borostyán 2.4.0
org.apache.orc orc-core-nohive 1.4.1
org.apache.orc orc-mapreduce-nohive 1.4.1
org.apache.parquet parquet-column 1.8.2-databricks1
org.apache.parquet parquet-common 1.8.2-databricks1
org.apache.parquet parquet-kódolás 1.8.2-databricks1
org.apache.parquet parquet-format 2.3.1
org.apache.parquet parquet-hadoop 1.8.2-databricks1
org.apache.parquet parquet-jackson 1.8.2-databricks1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm5-shaded 4.4
org.apache.zookeeper zookeeper 3.4.6
org.bouncycastle bcprov-jdk15on 1.58
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-compiler 3.0.8
org.codehaus.janino janino 3.0.8
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.20.v20170531
org.eclipse.jetty móló-folytatás 9.3.20.v20170531
org.eclipse.jetty jetty-http 9.3.20.v20170531
org.eclipse.jetty jetty-io 9.3.20.v20170531
org.eclipse.jetty jetty-jndi 9.3.20.v20170531
org.eclipse.jetty móló plusz 9.3.20.v20170531
org.eclipse.jetty jetty-proxy 9.3.20.v20170531
org.eclipse.jetty jetty-security 9.3.20.v20170531
org.eclipse.jetty jetty-server 9.3.20.v20170531
org.eclipse.jetty jetty-servlet 9.3.20.v20170531
org.eclipse.jetty jetty-servlets 9.3.20.v20170531
org.eclipse.jetty jetty-util 9.3.20.v20170531
org.eclipse.jetty jetty-webapp 9.3.20.v20170531
org.eclipse.jetty jetty-xml 9.3.20.v20170531
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-lokátor 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 osgi-resource-locator 1.0.1
org.glassfish.hk2.external aopalliance-repackaged 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-guava 2.22.2
org.glassfish.jersey.containers jersey-container-servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core jersey-common 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hibernate hibernate-validator 5.1.1.Végleges
org.iq80.snappy rámenős 0,2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.2.11
org.json4s json4s-core_2.11 3.2.11
org.json4s json4s-jackson_2.11 3.2.11
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc mariadb-java-client 2.1.2
org.mockito mockito-all 1.9.5
org.objenesis objenesis 2.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.5.11
org.rocksdb rocksdbjni 5.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.8
org.scala-lang scala-library_2.11 2.11.8
org.scala-lang scala-reflect_2.11 2.11.8
org.scala-lang scalap_2.11 2.11.8
org.scala-lang.modules scala-parser-combinators_2.11 1.0.2
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt teszt-interfész 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 2.2.6
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-exec 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark Használatlan 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core 4.1.4.RELEASE
org.springframework rugós teszt 4.1.4.RELEASE
org.tukaani xz 1.0
org.typelevel machinist_2.11 0.6.1
org.typelevel makró-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.2.6
org.yaml snakeyaml 1.16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1
xmlenc xmlenc 0,52