Databricks Runtime 4.2 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.
A Databricks 2018 júliusában adta ki ezt a verziót.
Fontos
Ez a kiadás 2019. március 5-én elavult. A Databricks runtime-elavulási szabályzatáról és ütemezéséről további információt a Databricks támogatási életciklusában talál.
Az alábbi kibocsátási megjegyzések az Apache Spark által üzemeltetett Databricks Runtime 4.2-ről nyújtanak információkat.
Delta Lake
A Databricks Runtime 4.2 jelentős minőségi fejlesztéseket és funkciókat ad a Delta Lake-hez. A Databricks erősen javasolja, hogy minden Delta Lake-ügyfél frissítsen az új futtatókörnyezetre. Ez a kiadás továbbra is privát előzetes verzióban érhető el, de a hamarosan megjelenő általános rendelkezésre állási (GA) kiadásra való felkészülés során jelölt kiadást jelent.
Új funkciók
- A streamek mostantól közvetlenül egy, a Hive metaadattárban
df.writeStream.table(...)
regisztrált Delta-táblába írhatók.
Fejlesztések
A Delta Lake összes parancsa és lekérdezése mostantól támogatja a táblák azonosítóként való használatát:
delta.`<path-to-table>`
Korábban
OPTIMIZE
ésVACUUM
megkövetelte a sztringkonstansok nem szabványos használatát (azaz'<path-to-table>'
).DESCRIBE HISTORY
Most már tartalmazza a véglegesítés azonosítóját, és alapértelmezés szerint a legújabbtól a legrégebbiig van rendezve.
Hibajavítások
- A partíciós predikátumokon alapuló szűrés akkor is megfelelően működik, ha a predikátumok esete eltér a táblázattól.
- Kijavítottuk a hiányzó oszlopot
AnalysisException
a Delta-táblák logikai oszlopainak egyenlőségi ellenőrzésekor (azazbooleanValue = true
). CREATE TABLE
már nem módosítja a tranzakciónaplót, amikor mutatót hoz létre egy meglévő táblához. Ez megakadályozza az egyidejű adatfolyamokkal való szükségtelen ütközéseket, és lehetővé teszi a metaadattármutató létrehozását olyan táblákhoz, ahol a felhasználó csak olvasási hozzáféréssel rendelkezik az adatokhoz.- Ha nagy mennyiségű adatot tartalmazó streamet hív meg
display()
, az már nem okoz OOM-t az illesztőprogramban. AnalysisException
a rendszer most egy mögöttes Delta Lake-elérési út törlésekor kerül törlésre, és nem üres eredményeket ad vissza.- Az adott protokollverziót (például
appendOnly
) igénylő Delta Lake-konfigurációk csak a megfelelő verziójú táblákra alkalmazhatók. - A Delta-tábla állapotának frissítésekor a rendszer automatikusan csonkolja a hosszú sorokat, hogy elkerülje a
StackOverFlowError
.
Strukturált streamelés
Új funkciók
A Delta Lake és a Kafka mostantól teljes mértékben támogatja a Trigger.Once szolgáltatást. A korábban forrásbeállításokként vagy alapértelmezettként megadott sebességkorlátok (például
maxOffsetsPerTrigger
vagymaxFilesPerTrigger
) az elérhető adatok csak részleges végrehajtását eredményezhetik. Ezeket a beállításokat a rendszer figyelmen kívül hagyja a használat soránTrigger.Once
, így az összes jelenleg elérhető adat feldolgozható.Új streamelést
foreachBatch()
adtunk hozzá a Scalában, ahol meghatározhat egy függvényt az összes mikrobatch kimenetének a DataFrame-műveletek használatával történő feldolgozásához. Ez lehetővé teszi a következőket:- Meglévő kötegelt adatforrások használata mikrobatch-kimenetek írásához olyan rendszerekhez, amelyek még nem rendelkeznek streamelési adatforrással (például minden mikroköteg-kimenethez használjon Cassandra batch-írót).
- Mikrobatch-kimenet írása több helyre.
- DataFrame- és táblaműveletek alkalmazása olyan mikrobatch-kimenetekre, amelyek még nem támogatottak a streamelési DataFrame-ek esetében (például a mikrobatch kimenetének frissítése Delta-táblába).
Az Avro-adatok adatolvasására és írására szolgáló függvények hozzáadva
from_avro/to_avro
a DataFrame-ben a fájlok helyett, hasonlóan a .from_json/to_json
További részletekért tekintse meg az Avro Data Anywhere olvasását és írását.A pythonos streamelés
foreach()
támogatása (már elérhető a Scalában). További részletekért tekintse meg a foreach és a foreachBatch dokumentációját .
Fejlesztések
- A kimeneti eredmények gyorsabb generálása és/vagy állapottisztítás állapotalapú műveletekkel (
mapGroupsWithState
stream-stream illesztés, stream-összesítés, streamelt dropDuplicates) akkor, ha nincsenek adatok a bemeneti adatfolyamban.
Hibajavítások
- Kijavítottuk a SPARK-24588 hiba hibaját a stream-stream illesztésben,
df1.repartition("a", "b").join(df, "a")
ahol az illesztés kevesebb eredményt jelentett, amikor explicit újrapartíció történt előtte (például).
Egyéb változások és fejlesztések
- A táblahozzáférés-vezérlést engedélyező fürtökhöz az SQL Deny parancs támogatása hozzáadva. A felhasználók mostantól ugyanúgy tagadhatnak meg bizonyos engedélyeket, mint korábban. A megtagadott engedély felülír egy adott engedélyt. Egy adott objektum rendszergazdái és tulajdonosai továbbra is mindig végezhetnek műveleteket.
- Új Azure Data Lake Storage Gen2-adatforrás, amely az ABFS-illesztőt használja. Lásd: Csatlakozás az Azure Data Lake Storage Gen2-hez és a Blob Storage-hoz
- Frissített néhány telepített Python-kódtárat:
- pip: 10.0.0b2-től 10.0.1-től
- setuptools: 39.0.1-től 39.2.0-ra
- tornádó: 5.0.1–5.0.2
- kerék: 0.31.0–0.31.1
- Több telepített R-kódtárat frissített. Lásd: Telepített R-kódtárak.
- Továbbfejlesztett Parquet-támogatás
- Frissített Apache ORC 1.4.1-ről 1.4.3-ra
Apache Spark
A Databricks Runtime 4.2 tartalmazza az Apache Spark 2.3.1-et. Ez a kiadás tartalmazza a Databricks Runtime 4.1 -ben (EoS) található összes javítást és fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-24588][SS] a streameléshez hashClusteredPartition-ra van szükség a gyermekektől
- [SPARK-23931][SQL] Make
arrays_zip
in function.scala@scala.annotation.varargs
. - [SPARK-24633][SQL] A koden javítása, ha felosztásra van szükség arrays_zip
- [SPARK-24578][CORE] Az alrégió visszaadott niopuffer méretének korlátja
- [SPARK-24613][SQL] Az UDF-et tartalmazó gyorsítótár nem feleltethető meg a későbbi függő gyorsítótáraknak
- [SPARK-24583][SQL] Helytelen sématípus az InsertIntoDataSourceCommand alkalmazásban
- [SPARK-24565][SS] API hozzáadása a strukturált streameléshez az egyes mikrobatchok kimeneti sorainak adatkeretként való felfedése érdekében
- [SPARK-24396][SS] [PYSPARK] Strukturált streamelési ForeachWriter hozzáadása Pythonhoz
- [SPARK-24216][SQL] A Spark TypedAggregateExpression olyan getSimpleName nevet használ, amely nem biztonságos a Scalában
- [SPARK-24452][SQL] [CORE] A lehetséges túlcsordulás elkerülése int add vagy multiple
- [SPARK-24187][R] [SQL] Array_join függvény hozzáadása a SparkR-hez
- [SPARK-24525][SS] Adjon meg egy lehetőséget a sorok számának korlátozására a MemorySinkben
- [SPARK-24331][SPARKR] [SQL] Arrays_overlap, array_repeat, map_entries hozzáadása a SparkR-hez
- [SPARK-23931][SQL] Arrays_zip függvény hozzáadása a Spark SQL-hez
- [SPARK-24186][R] [SQL] módosítsa a fordított és összefűző függvényeket az R gyűjteményfüggvényeire
- [SPARK-24198][SPARKR] [SQL] Szeletfüggvény hozzáadása a SparkR-hez
- [SPARK-23920][SQL] adjon hozzá array_remove az összes azonos elemet tartalmazó elem eltávolításához a tömbből
- [SPARK-24197][SPARKR] [SQL] Array_sort függvény hozzáadása a SparkR-hez
- [SPARK-24340][CORE] A nem shuffle lemezblokk-kezelő fájljainak törlése, miután a végrehajtó kilép egy önálló fürtön
- [SPARK-23935][SQL] Map_entries függvény hozzáadása
- [SPARK-24500][SQL] Győződjön meg arról, hogy a streamek materializálva vannak a faátalakítások során.
- [SPARK-24495][SQL] Az EnsureRequirement helytelen tervet ad vissza az egyenlő kulcsok átrendezésekor
- [SPARK-24506][Felhasználói felület] Felhasználói felületi szűrők hozzáadása a kötés után hozzáadott lapokhoz
- [SPARK-24468][SQL] Negatív skálázás kezelése decimális műveletek pontosságának beállításakor
- [SPARK-24313][SQL] A gyűjteményműveletek összetett típusok értelmezett kiértékelése kijavítása
- [SPARK-23922][SQL] Arrays_overlap függvény hozzáadása
- [SPARK-24369][SQL] Több különböző, azonos argumentumkészlettel rendelkező aggregáció megfelelő kezelése
- [SPARK-24455][CORE] elírás javítása a TaskSchedulerImpl megjegyzésben
- [SPARK-24397][PYSPARK] TaskContext.getLocalProperty(kulcs) hozzáadva a Pythonban
- [SPARK-24117][SQL] Egyesítette a getSizePerRow-t
- [SPARK-24156][SS] Adat nélküli köteg meghibásodásából helyreállított hiba kijavítása
- [SPARK-24414][Felhasználói felület] Kiszámíthatja egy adott fázishoz tartozó tevékenységek megfelelő számát.
- [SPARK-23754][PYTHON] StopIteration újbóli növelése az ügyfélkódban
- [SPARK-23991][DSTREAMS] Adatvesztés javítása, ha a WAL írása meghiúsul a allocateBlocksToBatch szolgáltatásban
- [SPARK-24373][SQL] AnalysisBarrier hozzáadása a RelationalGroupedDataset és a KeyValueGroupedDataset gyermekéhez
- [SPARK-24392][PYTHON] Pandas_udf címkézése kísérletiként
- [SPARK-24334] Az ArrowPythonRunner versenyállapotának kijavítása a Nyíl memórialeosztójának tisztátalan leállítását okozza
- [SPARK-19112][CORE] Hiányzó shortCompressionCodecNames hozzáadása a konfigurációhoz.
- [SPARK-24244][SPARK-24368][SQL] Csak a szükséges oszlopok átadása a CSV-elemzőnek
- [SPARK-24366][SQL] A típuskonvertálással kapcsolatos hibaüzenetek javítása
- [SPARK-24371][SQL] Hozzáadva az isInCollection a DataFrame API-ban scalai...
- [SPARK-23925][SQL] Array_repeat gyűjteményfüggvény hozzáadása
- [AL] Port SSL-konfiguráció hozzáadása a ToString és a scaladoc szolgáltatásban
- [SPARK-24378][SQL] Helytelen példák date_trunc függvény javítása
- [SPARK-24364][SS] Az InMemoryFileIndex meghibásodásának megakadályozása, ha a fájl elérési útja nem létezik
- [SPARK-24257][SQL] A LongToUnsafeRowMap kiszámítja, hogy az új méret helytelen lehet
- [SPARK-24348][SQL] element_at" hibajavítás
- [SPARK-23930][SQL] Szeletfüggvény hozzáadása
- [SPARK-23416][SS] Adjon hozzá egy adott stopmetódust a ContinuousExecutionhoz.
- [SPARK-23852][SQL] Frissítés a Parquet 1.8.3-ra
- [SPARK-24350][SQL] A ClassCastException javítása a "array_position" függvényben
- [SPARK-24321][SQL] Közös kód kinyerve a osztásból/maradékból egy alaptulajdonságba
- [SPARK-24309][CORE] Az AsyncEventQueue-nek megszakításkor le kell állnia.
- [SPARK-23850][SQL] Adjon hozzá külön konfigurációt az SQL-beállítások újraműveltségéhez.
- [SPARK-22371][CORE] A "Nincs" értéket adja vissza ahelyett, hogy kivételt adna, ha egy akkumulátor szemétgyűjtésre kerül.
- [SPARK-24002][SQL] Az org.apache.parquet.io.api.Binary$ByteBufferBackedBinary.getBytes által okozott feladat nem szerializálható
- [SPARK-23921][SQL] Array_sort függvény hozzáadása
- [SPARK-23923][SQL] Számosságfüggvény hozzáadása
- [SPARK-24159][SS] Adat nélküli mikro kötegek engedélyezése a mapGroupswithState streameléséhez
- [SPARK-24158][SS] Adat kötegek engedélyezése streamelési illesztésekhez
- [SPARK-24157][SS] Engedélyezett adat kötegek a MicroBatchExecutionban a streamelési aggregációhoz és deduplikációhoz
- [SPARK-23799][SQL] A FilterEstimation.evaluateInSet helytelen statisztikákat hoz létre a SZTRINGhez
- [SPARK-17916][SQL] Javítsa ki a null értékűként elemzett üres sztringet, ha a nullérték be van állítva.
- [SPARK-23916][SQL] Array_join függvény hozzáadása
- [SPARK-23408][SS] Egymást követő AddData-műveletek szinkronizálása a streamelésben*JoinSuite
- [SPARK-23780][R] Nem sikerült a GoogleVis-kódtár használata az új SparkR-sel
- [SPARK-23821][SQL] Gyűjteményfüggvény: simítás
- [SPARK-23627][SQL] IsEmpty megadása az adathalmazban
- [SPARK-24027][SQL] A MapType és a StringType támogatása a kulcsok gyökértípusaként a from_json
- [SPARK-24035][SQL] SQL-szintaxis a Pivothoz – hangjelzés javítása
- [SPARK-23736][SQL] Az összefűző függvény kiterjesztése a tömboszlopok támogatására
- [SPARK-24246][SQL] Az AnalysisException javítása a rendelkezésre állás okának beállításával
- [SPARK-24263][R] SparkR java-ellenőrzési szünetek openjdk használatával
- [SPARK-24262][PYTHON] Elírás javítása UDF-típusegyeztetés hibaüzenetben
- [SPARK-24067][STREAMELÉS] [KAFKA] Nem egymást követő eltolások engedélyezése
- [SPARK-10878][CORE] Versenyállapot javítása, ha több ügyfél egyszerre oldja fel az összetevőket
- [SPARK-19181][CORE] A "SparkListenerSuite.local metrics" pelyhesítése
- [SPARK-24068]A DataFrameReader beállításainak propagálása Text-adatforrásba sémakövetkeztetés alapján
- [SPARK-24214][SS] ToJSON javítása StreamingRelationV2/StreamingExecutionRelation/ContinuousExecutionRelation
- [SPARK-23919][SPARK-23924][SPARK-24054][SQL] Array_position/element_at függvény hozzáadása
- [SPARK-23926][SQL] Fordított függvény kiterjesztése a ArrayType argumentumok támogatására
- [SPARK-23809][SQL] Az aktív SparkSession-t a getOrCreate-nak kell beállítania
- [SPARK-23094][SPARK-23723][SPARK-23724][SQL] JSON-fájlok egyéni kódolásának támogatása
- [SPARK-24035][SQL] A kimutatás SQL-szintaxisa
- [SPARK-24069][R] Array_min/array_max függvények hozzáadása
- [SPARK-23976][CORE] Hossztúllépés észlelése az UTF8String.concat()/ByteArray.concat() alkalmazásban
- [SPARK-24188][CORE] Állítsa vissza a "/version" API-végpontot.
- [SPARK-24128][SQL] A konfigurációs beállítás említése implicit CROSS JOIN-hiba esetén
- [SPARK-23291][SQL] [R] Az R alsztringje nem csökkentheti az indítási pozíciót 1-sel a Scala API meghívásakor
- [SPARK-23697][CORE] A LegacyAccumulatorWrappernek helyesen kell meghatároznia az isZero-t
- [SPARK-24168][SQL] A WindowExec nem férhet hozzá az SQLConf-hez a végrehajtó oldalán
- [SPARK-24143]üres blokkok szűrése a mapstatus (blockId, size) párká alakításakor
- [SPARK-23917][SPARK-23918][SQL] Array_max/array_min függvény hozzáadása
- [SPARK-23905][SQL] UDF-hétköznap hozzáadása
- [SPARK-16406][SQL] A LogicalPlan.resolve teljesítményének javítása
- [SPARK-24013][SQL] Felesleges tömörítés eltávolítása a ApproximatePercentile-ben
- [SPARK-23433][CORE] A zombifeladat késői befejezései frissítik az összes feladatkészletet
- [SPARK-24169][SQL] A JsonToStructs nem férhet hozzá az SQLConfhoz a végrehajtó oldalán
- [SPARK-24133][SQL] Backport [SPARK-24133]Egész szám túlcsordulásainak ellenőrzése a WritableColumnVectors átméretezésekor
- [SPARK-24166][SQL] Az InMemoryTableScanExec nem férhet hozzá az SQLConfhoz a végrehajtó oldalán
- [SPARK-24133][SQL] Egész szám túlcsordulásainak ellenőrzése a WritableColumnVectors átméretezésekor
- [SPARK-24085][SQL] A lekérdezés nem támogatottOperationException értéket ad vissza, ha skaláris alquery jelen van a particionálási kifejezésben
- [SPARK-24062][THRIFT SERVER] Az SASL-titkosítás javítása nem engedélyezett probléma a takarékos kiszolgálón
- [SPARK-23004][SS] Győződjön meg arról, hogy a StateStore.commit csak egyszer van meghívva egy streamelési összesítési feladatban
- [SPARK-23188][SQL] Konfigurálhatóvá teheti a vektorizált kolumáris olvasó kötegméretét
- [SPARK-23375][SPARK-23973][SQL] Szükségtelen rendezés megszüntetése az Optimizerben
- [SPARK-23877][SQL] A csak metaadat-lekérdezésekben lévő partíciók szűrési predikátumok használata
- [SPARK-24033][SQL] A window frame specifiedwindowframe(RowFrame, -1, -1) nem egyező ablakkeretének javítása
- [SPARK-23340][SQL] Az Apache ORC frissítése 1.4.3-ra
- Kijavítottunk egy hiányzó null-ellenőrzési hibát, amelyet nagyobb valószínűséggel váltott ki az egyszerűsített experssion kódgenerálás, és amelyet a SPARK-23986 tett közzé, mert egy kicsit hosszabbra tette a létrehozott forráskódot, és aktiválta a problémás kód elérési útját (az Expression.reduceCodeSize()által felosztott kód).
- [SPARK-23989]Az [SQL] exchange-nek adatokat kell másolnia a nem szerializált shuffle előtt
- [SPARK-24021][CORE] hiba javítása a BlacklistTracker frissítésébenBlacklistForFetchFailure
- [SPARK-24014][PYSPARK] OnStreamingStarted metódus hozzáadása a StreamingListenerhez
- [SPARK-23963][SQL] Nagy számú oszlop megfelelő kezelése a szövegalapú Hive-táblán lévő lekérdezésben
- [SPARK-23948] A Mapstage feladatfigyelőjének aktiválása a SubmitMissingTasks szolgáltatásban
- [SPARK-23986]Az [SQL] freshName nem egyedi neveket hozhat létre
- [SPARK-23835][SQL] Null értékű ellenőrzés hozzáadása Auples argumentumainak deszerializálásához
Karbantartási frissítések
Lásd a Databricks Runtime 4.2 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 Python 2-fürtökhöz és 3.5.2 Python 3-fürtökhöz.
- R: R 3.4.4-es verzió (2018-03-15)
- GPU-fürtök: A következő NVIDIA GPU-kódtárak vannak telepítve:
- Tesla driver 375.66
- CUDA 9.0
- cuDNN 7.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | minősítés | 2016.2.28 | cffi | 1.7.0 |
karakterkészlet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kriptográfia | 1,5 | biciklista | 0.10.0 | Cython | 0.24.1 |
lakberendező | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | határidőügylet | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Párna | 3.3.1 |
mag | 10.0.1 | réteg | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
kérelmek | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | súrol | 0.32 | tengeri | 0.7.1 |
setuptools | 39.2.0 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Hat | 1.10.0 | statsmodels | 0.6.1 |
tornádó | 5.0.2 | árulók | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | kerék | 0.31.1 |
wsgiref | 0.1.2 |
Telepített R-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.2 |
alap | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
bindrcpp | 0.2.2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | indítás | 1.3-20 |
főz | 1.0-6 | seprű | 0.4.4 | autó | 3.0-0 |
carData | 3.0-1 | kalap | 6.0-79 | cellranger | 1.1.0 |
chron | 2.3-52 | osztály | 7.3-14 | Cli | 1.0.0 |
fürt | 2.0.7-1 | kódtoolok | 0.2-15 | színtér | 1.3-2 |
commonmark | 1.4 | fordítóprogram | 3.4.4 | zsírkréta | 1.3.4 |
csavarodik | 3.2 | CVST | 0.2-1 | data.table | 1.10.4-3 |
adatkészletek | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
DEoptimR | 1.0-8 | Desc | 1.1.1 | devtools | 1.13.5 |
dichromat | 2.0-0 | emészt | 0.6.15 | dimRed | 0.1.0 |
doMC | 1.3.5 | dplyr | 0.7.4 | DRR | 0.0.3 |
forcats | 0.3.0 | foreach | 1.4.4 | külföldi | 0.8-70 |
gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
glmnet | 2.0-16 | ragasztó | 1.2.0 | Gower | 0.1.2 |
grafika | 3.4.4 | grDevices | 3.4.4 | rács | 3.4.4 |
gsubfn | 0,7 | gtable | 0.2.0 | h2o | 3.16.0.2 |
kikötő | 1.1.1 | Hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
iterátorok | 1.0.9 | jsonlite | 1,5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | címkézés | 0.3 | rács | 0.20-35 |
láva | 1.6.1 | lazyeval | 0.2.1 | kicsi | 0.3.3 |
lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1,5 |
mapproj | 1.2.6 | Térképek | 3.3.0 | maptools | 0.9-2 |
TÖMEG | 7.3-50 | Mátrix | 1.2-14 | MatrixModels | 0.4-1 |
memoise | 1.1.0 | metódusok | 3.4.4 | mgcv | 1.8-24 |
MIME | 0,5 | minqa | 1.2.4 | mnormt | 1.5-5 |
ModelMetrics | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | pillér | 1.2.1 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
rétegelt | 1.8.4 | dicséret | 1.0.0 | prettyunits | 1.0.2 |
Proc | 1.11.0 | prodlim | 1.6.1 | Proto | 1.0.0 |
Psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
R6 | 2.2.2 | randomForest | 4.6-14 | RColorBrewer | 1.1-2 |
Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
RCurl | 1.95-4.10 | olvasó | 1.1.1 | readxl | 1.0.0 |
receptek | 0.1.2 | Visszavágót | 1.0.1 | újraformázás2 | 1.4.3 |
Rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
rstudioapi | 0,7 | mérleg | 0.5.0 | sfsmisc | 1.1-2 |
Sp | 1.2-7 | SparkR | 2.3.1 | SparseM | 1.77 |
térbeli | 7.3-11 | splines | 3.4.4 | sqldf | 0.4-11 |
NÉGYZET | 2017.10-1 | statmod | 1.4.30 | statisztika | 3.4.4 |
statisztikák4 | 3.4.4 | stringi | 1.1.7 | sztring | 1.3.0 |
túlélés | 2.42-3 | tcltk | 3.4.4 | TeachingDemos | 2.10 |
testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
tidyselect | 0.2.4 | timeDate | 3043.102 | eszközök | 3.4.4 |
utf8 | 1.1.3 | eszközök | 3.4.4 | viridisLite | 0.3.0 |
bajusz | 0.3-2 | withr | 2.1.2 | xml2 | 1.2.0 |
Telepített Java- és Scala-kódtárak (Scala 2.11-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | patak | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
com.databricks | dbml-local_2.11-tesztek | 0.4.1-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natívok | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natívok | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1,1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metrikamag | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | gyűjtő | 0,7 |
javax.activation | aktiválás | 1.1.1 |
javax.annotation | javax.annotation-api | 1,2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.3.2 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | nyílformátum | 0.8.0 |
org.apache.arrow | nyíl-memória | 0.8.0 |
org.apache.arrow | nyíl-vektor | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | kalcit-avatica | 1.2.0-inkubálás |
org.apache.calcite | kalcitmag | 1.2.0-inkubálás |
org.apache.calcite | calcite-linq4j | 1.2.0-inkubálás |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurátor-ügyfél | 2.7.1 |
org.apache.curator | kurátor-keretrendszer | 2.7.1 |
org.apache.curator | kurátor-receptek | 2.7.1 |
org.apache.derby | keménykalap | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-inkubálás |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | borostyán | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.3 |
org.apache.orc | orc-mapreduce-nohive | 1.4.3 |
org.apache.parquet | parquet-column | 1.8.3-databricks2 |
org.apache.parquet | parquet-common | 1.8.3-databricks2 |
org.apache.parquet | parquet-kódolás | 1.8.3-databricks2 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.3-databricks2 |
org.apache.parquet | parquet-jackson | 1.8.3-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | móló-folytatás | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | móló plusz | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-lokátor | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Végleges |
org.iq80.snappy | rámenős | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | Használatlan | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | rugós teszt | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | makró-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |