Databricks Runtime 11.0 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.3.0 által működtetett Databricks Runtime 11.0-ról nyújtanak információkat. A Databricks 2022 júniusában adta ki ezt a verziót.
Új funkciók és fejlesztések
- Az Apache Spark új verziója
- A Python-jegyzetfüzetek most már az IPython kernelt használják
- Ipywidgets támogatása
- A Synapse-összekötő mostantól parquet-adatokat ír nem örökölt módban
- A HTTPS-séma kényszerítve lett, amikor az ABFS-ügyfél SAS-jogkivonatot használ
- SQL: mostantól a következő aliasa:
DESC
DESCRIBE
- SQL: Az új
current_version
függvény a verzió részleteit adja ki - Egy hiányzó Delta-tábla kényszerének elvetése hibát okoz
- SQL: Az utasítás új
EXCEPT
záradékaSELECT
kizárja az oszlopokat a kijelölésből - Oszlopok elvetése a Delta-táblákban (nyilvános előzetes verzió)
COPY INTO
FejlesztésekCONVERT TO DELTA
mostantól támogatott a Unity Catalog-kompatibilis környezetekben (nyilvános előzetes verzió)
Az Apache Spark új verziója
A Databricks Runtime 11.0 és a Databricks Runtime 11.0 Photon tartalmazza az Apache Spark 3.3.0-t. További részletekért lásd az Apache Sparkot.
A Python-jegyzetfüzetek most már az IPython kernelt használják
A Databricks Runtime 11.0-s és újabb verziókban a Python-jegyzetfüzetek az IPython kernel használatával hajtják végre a Python-kódot. Lásd: IPython kernel.
Ipywidgets támogatása
Mostantól ipywidgets használatával interaktívsá teheti Databricks Python-jegyzetfüzeteit. Lásd: ipywidgets.
A Synapse-összekötő mostantól parquet-adatokat ír nem örökölt módban
Az Azure Synapse-összekötő mostantól parquet-adatokat ír nem örökölt módban. Megőrzi az időbélyeg formátumát a INT96
PolyBase COPY
és a kötegelt és streamelési számítási feladatok parancsai esetén.
A HTTPS-séma kényszerítve lett, amikor az ABFS-ügyfél SAS-jogkivonatot használ
Amikor az Azure Blob Fájlrendszer (ABFS) ügyfél egy KÖZÖS hozzáférésű jogosultságkód (SAS) jogkivonatot használ, a HTTPS-séma életbe lép.
SQL: mostantól a következő aliasa: DESC
DESCRIBE
Mostantól DESC
használhatja aliasként a DESCRIBE
külső helyek vagy a tár hitelesítő adatainak leírásához. Példa:
-- Describe an external location.
DESC EXTERNAL LOCATION location_name;
-- Describe a storage credential.
DESC STORAGE CREDENTIAL credential_name;
SQL: Az új current_version
függvény a verzió részleteit adja ki
Az új current_version
függvény az aktuális Databricks Runtime-verziót adja ki, ha elérhető, az aktuális Databricks SQL-verziót, és egyéb kapcsolódó verzióadatokat. Ezzel az új függvénnyel lekérdezheti a verzióval kapcsolatos információkat. Lásd current_version függvényt.
Egy hiányzó Delta-tábla kényszerének elvetése hibát okoz
Ha most név alapján próbál elvetni egy Delta-táblamegkötést, és ez a kényszer nem létezik, hibaüzenet jelenik meg. Az előző viselkedés lekéréséhez, amely nem jelez hibát, ha a kényszer nem létezik, most az utasítást IF EXISTS
kell használnia. Lásd: ALTER TABLE.
SQL: Az utasítás új EXCEPT
záradéka SELECT
kizárja az oszlopokat a kijelölésből
SELECT
az utasítások mostantól támogatják a záradékot, amely kizárja az EXCEPT
oszlopokat a kijelölésből. Például az összes table
oszlopot visszaadja, SELECT * EXCEPT (x) FROM table
kivévex
. A beágyazott oszlopok is engedélyezettek. Például az összes table
oszlopot visszaadja, SELECT * EXCEPT (x.a) FROM table
de kihagyja a mezőt a
a szerkezetbőlx
.
Oszlopok elvetése a Delta-táblákban (nyilvános előzetes verzió)
A Delta-táblákból csak metaadat-műveletként használhat ALTER TABLE <table-name> DROP COLUMN [IF EXISTS] <column-name>
ALTER TABLE <table-name> DROP COLUMNS [IF EXISTS] (<column-name>, *)
vagy elvethet egy oszlopot vagy oszloplistát. Az oszlopok gyakorlatilag "helyreállíthatóan törölve" lesznek, mivel továbbra is a mögöttes Parquet-fájlokban találhatók, de már nem láthatók a Delta-tábla számára.
A REORG TABLE <table-name> APPLY (PURGE)
helyreállíthatóan törölt adatokat, például az elvetett oszlopokat tartalmazó fájlokon fájlátírást indíthat el.
A VACUUM
törölt fájlokat eltávolíthatja a fizikai tárolóból, beleértve az elvetett oszlopokat tartalmazó régi fájlokat is, amelyeket REORG TABLE
a rendszer újraírt.
COPY INTO
Fejlesztések
Most már létrehozhat üres helyőrző Delta-táblákat, hogy a séma később következtethető legyen egy COPY INTO
parancs során:
CREATE TABLE IF NOT EXISTS my_table
[COMMENT <table-description>]
[TBLPROPERTIES (<table-properties>)];
COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('mergeSchema' = 'true')
COPY_OPTIONS ('mergeSchema' = 'true');
Az előző SQL-utasítás idempotens, és ütemezhető úgy, hogy pontosan egyszer futtassa az adatokat egy Delta-táblába.
Feljegyzés
Az üres Delta-tábla kívül nem használható COPY INTO
. Nem használhatja INSERT INTO
és MERGE INTO
nem írhat adatokat séma nélküli Delta-táblákba. Miután beszúrta az adatokat a táblába COPY INTO
, a tábla lekérdezhető.
Ha a betöltött adatok valamilyen sérülés miatt nem olvashatók, a sérült fájlokat kihagyhatja a FORMAT_OPTIONS
következő beállítással:ignoreCorruptFiles
true
COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('ignoreCorruptFiles' = 'true')
A COPY INTO
parancs az oszlop sérülése num_skipped_corrupt_files
miatt kihagyott fájlok számát adja vissza. Ez a metrika a operationMetrics
Delta-táblán való futtatás DESCRIBE HISTORY
után is megjelenik az oszlopbannumSkippedCorruptFiles
.
A sérült fájlokat nem követi nyomon COPY INTO
a rendszer, így a sérülés kijavítása után újra betölthetők. A módban való futtatással COPY INTO
VALIDATE
láthatja, hogy mely fájlok sérültek.
CONVERT TO DELTA
mostantól támogatott a Unity Catalog-kompatibilis környezetekben (nyilvános előzetes verzió)
A Unity-Catalog-kompatibilis környezetekben CONVERT TO DELTA
mostantól a következőket teheti:
- Külső helyeken lévő Parquet-fájlok konvertálása Delta Lake-fájllá.
- Parquet külső táblák konvertálása Delta-táblákká.
Viselkedésbeli változások
- SQL:
lpad
ésrpad
a függvények mostantól támogatják a bájtsorozatokat - Sztringformátum a következőben:
format_string
printf
%0$
- A CSV-fájlok null értékei alapértelmezés szerint nemquoted üres sztringekként vannak megírva
- A táblatulajdonság
external
már foglalt - A Log4j a Log4j 1-ről a Log4j 2-re frissül
- A Mavenből telepített kódtárak alapértelmezés szerint feloldódnak a számítási síkban
SQL: lpad
és rpad
a függvények mostantól támogatják a bájtsorozatokat
Az lpad és az rpad függvények frissültek, így a sztringek mellett a bájtsorozatok is támogatottak.
Sztringformátum a következőben:format_string
printf
%0$
A formátum %0$
és printf
a format_string
függvények megadása mostantól alapértelmezés szerint hibát jelez. Ez a módosítás a Databricks Runtime korábbi verzióival és a közös külső adatbázisokkal a várt viselkedés megőrzése. Az első argumentumnak mindig hivatkoznia %1$
kell, amikor argumentumindex használatával jelzi az argumentum helyét az argumentumlistában.
A CSV-fájlok null értékei alapértelmezés szerint nemquoted üres sztringekként vannak megírva
A CSV-fájlok null értékeit korábban idézett üres sztringekként írták. Ezzel a kiadással a CSV-fájlok null értékei alapértelmezés szerint nem kvótált üres sztringekként lesznek megírva. Ha vissza szeretne váltani az előző viselkedésre, állítsa be az nullValue
írási műveletek beállítását ""
.
A táblatulajdonság external
már foglalt
A tulajdonság external
alapértelmezés szerint fenntartott táblatulajdonság. A kivételek akkor jelennek meg, ha a external
tulajdonságot a záradékokkal CREATE TABLE ... TBLPROPERTIES
együtt ALTER TABLE ... SET TBLPROPERTIES
használja.
A Log4j a Log4j 1-ről a Log4j 2-re frissül
A Log4j 1 a Log4j 2-re frissül. Az örökölt Log4j 1 függőségek törlődnek.
Ha a Databricks Futtatókörnyezetben korábban szereplő Log4j 1 osztálytól függ, ezek az osztályok már nem léteznek. A függőségeket a Log4j 2-re kell frissítenie.
Ha olyan egyéni beépülő modulokkal vagy konfigurációs fájlokkal rendelkezik, amelyek a Log4j 2-től függenek, előfordulhat, hogy a továbbiakban nem működnek a Log4j 2 verziójával ebben a kiadásban. Segítségért forduljon az Azure Databricks-fiók csapatához.
A Mavenből telepített kódtárak alapértelmezés szerint feloldódnak a számítási síkban
A Maven-kódtárak alapértelmezés szerint feloldódnak a számítási síkban, amikor kódtárakat telepít egy fürtre. A fürtnek hozzáféréssel kell rendelkeznie a Maven Centralhoz. Másik lehetőségként visszatérhet az előző viselkedéshez a Spark konfigurációs tulajdonságának beállításával:
spark.databricks.libraries.enableMavenResolution false
Hibajavítások
- Az Apache Spark és
BinaryNode
a Databricks Runtime bináris kompatibilitásaLeafNode
UnaryNode
ki lett javítva, és az osztályok kompatibilisek az Apache Spark 3.3.0-s és újabb verziókkal. Ha a databricks-futtatókörnyezettel egy harmadik féltől származó csomag használatakor a következő vagy hasonló üzenetet tapasztalja, építse újra a csomagot az Apache Spark 3.3.0-s vagy újabb verziójával:Found interface org.apache.spark.sql.catalyst.plans.logical.UnaryNode, but class was expected
.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- platformdirs 2.5.1 és 2.5.2 között
- protobuf 3.20.0 és 3.20.1 között
- Frissített R-kódtárak:
- blob 1.2.2-től 1.2.3-ra
- seprű 0.7.12–0.8.0
- simító 6,0-91-6,0-92
- cli 3.2.0-tól 3.3.0-ra
- dplyr 1.0.8 és 1.0.9 között
- 1.24.0-tól 1.25.0-ra
- future.apply from 1.8.1 to 1.9.0
- gert 1.5.0-tól 1.6.0-ra
- ggplot2 3.3.5-től 3.3.6-osig
- glmnet 4.1-3-tól 4.1-4-4-hez
- 2.4.3-tól 2.5.0-ra
- httr 1.4.2-től 1.4.3-ra
- knitr 1,38-tól 1,39-ig
- magrittr 2.0.2 és 2.0.3 között
- párhuzamosan az 1.30.0 és 1.31.1 között
- ps 1.6.0 és 1.7.0 között
- RColorBrewer 1.1-2-től 1.1-3-ig
- RcppEigen 0.3.3.9.1-től 0.3.3.9.2-től
- readxl 1.3.1 és 1.4.0 között
- rmarkdown 2.13-tól 2.14-ig
- rprojroot 2.0.2-től 2.0.3-ig
- RSQLite 2.2.11-től 2.2.13-ra
- skálázás 1.1.1-ről 1.2.0-ra
- testthat 3.1.2 és 3.1.4 között
- 3.1.6-tól 3.1.7-hez
- tinytex 0,37-től 0,38-ra
- tzdb 0.2.0 és 0.3.0 között
- uuid 1.0-4-től 1.1-0-ra
- 0.3.8 és 0.4.1 közötti vctrs
- Frissített Java-kódtárak:
- com.fasterxml.jackson.core.jackson-annotations from 2.13.0 to 2.13.3
- com.fasterxml.jackson.core.jackson-core 2.13.0-2.13.3
- com.fasterxml.jackson.core.jackson-databind 2.13.0 és 2.13.3 között
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor 2.13.0 és 2.13.3 között
- com.fasterxml.jackson.datatype.jackson-datatype-joda 2.13.0 és 2.13.3 között
- com.fasterxml.jackson.module.jackson-module-paranamer 2.13.0-2.13.3
- com.fasterxml.jackson.module.jackson-module-scala_2.12 2.13.0 és 2.13.3 között
- com.google.crypto.tink.tink.tink 1.6.0 és 1.6.1 között
- com.ning.compress-lzf 1.0.3 és 1.1 között
- dev.ludovic.netlib.arpack 2.2.0 és 2.2.1 között
- dev.ludovic.netlib.blas 2.2.0 és 2.2.1 között
- dev.ludovic.netlib.lapack 2.2.0 és 2.2.1 között
- io.netty.netty-all 4.1.73.Final-4.1.74.Final
- io.netty.netty-puffer 4.1.73.Final-4.1.74.Final
- io.netty.netty-codec 4.1.73.Final-4.1.74.Final
- io.netty.netty-common 4.1.73.Final-4.1.74.Final
- io.netty.netty-handler 4.1.73.Final-4.1.74.Final
- io.netty.netty-resolver 4.1.73.Final–4.1.74.Final
- io.netty.netty-tcnative-classes 2.0.46.Final-2.0.48.Final
- io.netty.netty-transport 4.1.73.Final-4.1.74.Final
- io.netty.netty-transport-classes-epoll 4.1.73.Final-4.1.74.Final
- io.netty.netty-transport-classes-kqueue 4.1.73.Final-4.1.74.Final
- io.netty.netty-transport-native-epoll-linux-aarch_64 4.1.73.Final-4.1.74.Final
- io.netty.netty-transport-native-epoll-linux-x86_64 4.1.73.Final-4.1.74.Final
- io.netty.netty-transport-native-kqueue-osx-aarch_64 4.1.73.Final-tól 4.1.74.Final-ig
- io.netty.netty-transport-native-kqueue-osx-x86_64 4.1.73.Final-tól 4.1.74.Final-ig
- io.netty.netty-transport-native-unix-common 4.1.73.Final-4.1.74.Final
- joda-time.joda-time 2.10.12 és 2.10.13 között
- org.apache.commons.commons-math3 3.4.1 és 3.6.1 között
- org.apache.httpcomponents.httpcore 4.4.12 és 4.4.14 között
- org.apache.orc.orc-core 1.7.3 és 1.7.4 között
- org.apache.orc.orc-mapreduce 1.7.3 és 1.7.4 között
- org.apache.orc.orc-shims 1.7.3-tól 1.7.4-re
- org.eclipse.jetty.jetty-client 9.4.43.v20210629-ról 9.4.46.v20220331-ra
- org.eclipse.jetty.jetty-continuation from 9.4.43.v20210629 to 9.4.46.v20220331
- org.eclipse.jetty.jetty-http 9.4.43.v20210629-tól 9.4.46.v20220331
- org.eclipse.jetty.jetty-io 9.4.43.v20210629-tól 9.4.46.v20220331
- org.eclipse.jetty.jetty-jndi 9.4.43.v20210629-tól 9.4.46.v20220331-től
- org.eclipse.jetty.jetty-plus 9.4.43.v20210629-tól 9.4.46.v20220331
- org.eclipse.jetty.jetty-proxy 9.4.43.v20210629-ról 9.4.46.v20220331
- org.eclipse.jetty.jetty-security 9.4.43.v20210629-ról 9.4.46.v20220331-ra
- org.eclipse.jetty.jetty-server 9.4.43.v20210629 és 9.4.46.v20220331
- org.eclipse.jetty.jetty-servlet 9.4.43.v20210629 és 9.4.46.v20220331
- org.eclipse.jetty.jetty-servlets from 9.4.43.v20210629 to 9.4.46.v20220331
- org.eclipse.jetty.jetty-util 9.4.43.v20210629 és 9.4.46.v20220331
- org.eclipse.jetty.jetty-util-ajax from 9.4.43.v20210629 to 9.4.46.v20220331
- org.eclipse.jetty.jetty-webapp 9.4.43.v20210629 és 9.4.46.v20220331
- org.eclipse.jetty.jetty-xml 9.4.43.v20210629-tól 9.4.46.v20220331-től
- org.eclipse.jetty.websocket.websocket-api 9.4.43.v20210629 és 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-client 9.4.43.v20210629–9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-common from 9.4.43.v20210629 to 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-server 9.4.43.v20210629–9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-servlet 9.4.43.v20210629–9.4.46.v20220331
- org.mariadb.jdbc.mariadb-java-client 2.2.5-től 2.7.4-ig
- org.postgresql.postgresql 42.2.19-től 42.3.3-ig
- org.roaringbitmap.RoaringBitmap 0.9.23 és 0.9.25 között
- org.roaringbitmap.shims 0.9.23 és 0.9.25 között
- org.rocksdb.rocksdbjni 6.20.3 és 6.24.2 között
- org.slf4j.jcl-over-slf4j 1.7.32–1.7.36
- org.slf4j.jul-to-slf4j 1.7.32–1.7.36
- org.slf4j.slf4j-api 1.7.30-tól 1.7.36-osig
Apache Spark
A Databricks Runtime 11.0 tartalmazza az Apache Spark 3.3.0-t.
Ebben a szakaszban:
Spark SQL és Core
ANSI mód
- Új explicit öntött szintaxisszabályok ANSI módban (SPARK-33354)
- Az Elt() null értéket ad vissza, ha az index NULL az ANSI módban (SPARK-38304)
- Ha az elem nem létezik tömbben/leképezésben (SPARK-37750) null értéket ad vissza, akkor null eredményt ad vissza.
- Numerikus típus és időbélyeg típus közötti öntés engedélyezése (SPARK-37714)
- Fenntartott ANSI-kulcsszavak letiltása alapértelmezés szerint (SPARK-37724)
- Tár-hozzárendelési szabályok használata a függvényhívások feloldásához (SPARK-37438)
- Konfiguráció hozzáadása a Datetime és a Numerikus (SPARK-37179) közötti casting engedélyezéséhez
- Konfigurálás hozzáadása az ANSI által fenntartott kulcsszavak opcionális kényszerítéséhez (SPARK-37133)
- Bináris műveletek letiltása intervallum és sztringkonstans között (SPARK-36508)
Funkciók fejlesztései
- ANSI SQL INTERVAL-típusok támogatása (SPARK-27790)
- Hibaüzenetek fejlesztései (SPARK-38781)
- Rejtett fájl metaadatainak támogatása Spark SQL-hez (SPARK-37273)
- Nyers sztringkonstans támogatása (SPARK-36371)
- Helper class for batch Dataset.observe() (SPARK-34806)
- A támogatás megadja az újraegyensúlyozás kezdeti partíciószámát (SPARK-38410)
- Az API-k kaszkádolt módjának
dropNamespace
támogatása (SPARK-37929) - Tároló hozzárendelésének és implicit leadásának engedélyezése datetime-típusok között (SPARK-37707)
- A collect, first és last függvénynek determinisztikus aggregátumfüggvénynek kell lennie (SPARK-32940)
- ExpressionBuilder hozzáadása összetett túlterheléssel rendelkező függvényekhez (SPARK-37164)
- Tömbtámogatás hozzáadása az egyesítőhöz név szerint (SPARK-36546)
- df.withMetadata hozzáadása: szintaxiscukor egy adatkeret metaadatainak frissítéséhez (SPARK-36642)
- Nyers sztringkonstans támogatása (SPARK-36371)
- A CAST használata a dátumok/időbélyegek alapértelmezett mintával történő elemzéséhez (SPARK-36418)
- Támogatási értékosztály az adathalmaz beágyazott sémájában (SPARK-20384)
- AS OF szintaxistámogatás hozzáadása (SPARK-37219)
- Add REPEATABLE in TABLESAMPLE to specify seed (SPARK-37165)
- Ansi szintaxis
set catalog xxx
hozzáadása az aktuális katalógus módosításához (SPARK-36841) - ILIKE támogatása (ALL | BÁRMELY | NÉHÁNY) - esetérzékeny LIKE (SPARK-36674, SPARK-36736, SPARK-36778)
- A lekérdezési szakasz futásidejű statisztikáinak támogatása formázott magyarázó módban (SPARK-38322)
- Kiömlés méretmetrikáinak hozzáadása rendezési körlevél illesztéshez (SPARK-37726)
- A SHOW FUNCTIONS (SPARK-37777) SQL-szintaxisának frissítése
- A DROP COLUMN [HA LÉTEZIK] szintaxis támogatása (SPARK-38939)
- Új beépített függvények és bővítményeik (SPARK-38783)
- Datetime
- Adja hozzá a TIMESTAMPADD() függvényt (SPARK-38195)
- Adja hozzá a TIMESTAMPDIFF() függvényt (SPARK-38284)
- Adja hozzá a
DATEDIFF()
(SPARK-38389) aliasátTIMESTAMPDIFF()
- Alias hozzáadása a
DATEADD()
következőhözTIMESTAMPADD()
: (SPARK-38332) convert\_timezone()
A függvény hozzáadása (SPARK-37552, SPARK-37568)- Make_date kifejezés elérhetővé tehető a functions.scala (SPARK-36554) alkalmazásban
- AES-függvények (SPARK-12567)
- Aes_encrypt és aes_decrypt beépített függvények hozzáadása (SPARK-12567)
- A GCM mód támogatása (
aes\_encrypt()
/aes\_decrypt()
SPARK-37591) - Beállítás
GCM
alapértelmezett módként (aes\_encrypt()
aes\_decrypt()
/SPARK-37666) - Adja hozzá az
mode
and args toaes\_decrypt()
/aes\_encrypt()
(SPARK-37586)padding
- ANSI aggregációs függvény (SPARK-37671)
- Az ANSI-összesítő függvény támogatása: regr_count (SPARK-37613)
- ANSI-összesítő függvény támogatása: regr_avgx ®r_avgy (SPARK-37614)
- Az ANSI aggregációs függvény támogatása: percentile_cont (SPARK-37676, SPARK-38219)
- Az ANSI aggregációs függvény támogatása: percentile_disc (SPARK-37691)
- Az ANSI-összesítő függvény támogatása: regr_count (SPARK-37613)
- Az ANSI-összesítő függvény támogatása: array_agg (SPARK-27974)
- ANSI-összesítő függvény támogatása: regr_r2 (SPARK-37641)
- Új SQL-függvény: try_avg (SPARK-38589)
- Gyűjtemények
- SQL-függvény ARRAY_SIZE (SPARK-38345) bemutatása
- Új SQL-függvény: map_contains_key (SPARK-37584)
- Új SQL-függvény: try_element_at (SPARK-37533)
- Új SQL-függvény: try_sum (SPARK-38548)
- Formátum
- Új SQL-függvény hozzáadása to_binary (SPARK-37507, SPARK-38796)
- Új SQL-függvény: try_to_binary (SPARK-38590, SPARK-38796)
- Adattípus formázási függvényei:
to\_number
(SPARK-28137)
- Sztring/bináris
- CONTAINS() sztringfüggvény hozzáadása (SPARK-37508)
- A sztringfüggvények
startswith()
endswith()
hozzáadása (SPARK-37520) - Lpad- és rpad-függvények hozzáadása bináris sztringekhez (SPARK-37047)
- Támogatási split_part függvény (SPARK-38063)
- Méretezési paraméter hozzáadása padló- és ceil-függvényekhez (SPARK-37475)
- Új SQL-függvények: try_subtract és try_multiply (SPARK-38164)
- Implementálja histogram_numeric aggregációs függvényt, amely támogatja a részleges összesítést (SPARK-16280)
- Max_by/min_by hozzáadása az sql.functionshez (SPARK-36963)
- Új beépített SQL-függvények hozzáadása: SEC és CSC (SPARK-36683)
- array_intersect duplikált Double.NaN és Float.NaN (SPARK-36754) kezelése
- Kiságy hozzáadása Scala- és Python-függvényként (SPARK-36660)
- Datetime
Teljesítménybeli fejlesztések
- Teljes körű kódlétrehozás
- Kód-gen hozzáadása csoportosítási kulcsok nélküli rendezési aggregátumhoz (SPARK-37564)
- Kód-gen hozzáadása teljes külső rendezési egyesítési illesztéshez (SPARK-35352)
- Kód-gen hozzáadása teljes külső elfojtott kivonat illesztéshez (SPARK-32567)
- Kód-gen hozzáadása a létezési rendezési egyesítési illesztéshez (SPARK-37316)
- Leküldés (szűrők)
- Szűrők leküldése RebalancePartitions (SPARK-37828) használatával
- Logikai oszlopszűrő leküldése (SPARK-36644)
- 1. leküldéses korlát a bal oldali fél-/anti illesztés jobb oldalán, ha az illesztési feltétel üres (SPARK-37917)
- További szabványos összesítő függvények fordítása leküldéshez (SPARK-37527)
- Az üres kapcsolat propagálása aggregátum/egyesítés használatával (SPARK-35442)
- Sorszintű futtatókörnyezet szűrése (SPARK-32268)
- Bal oldali félillesztés támogatása sorszintű futtatókörnyezeti szűrőkben (SPARK-38565)
- Támogatás predikátum leküldéses és oszlopmetsző de duped CTes (SPARK-37670)
- Vektorizálás
- KonstanscolumnVector implementálása és a rejtett fájl metaadatainak teljesítményének javítása (SPARK-37896)
- Vektoros olvasás engedélyezése VectorizedPlainValuesReader.readBooleans (SPARK-35867)
- Csomópontok egyesítése/eltávolítása/cseréje
- Egyesítse az egyesítőket, ha projekt van közöttük (SPARK-37915)
- Kombináljuk egy öntött, ha tudjuk biztonságosan fel-öntött két leadott (SPARK-37922)
- Távolítsa el a rendezést, ha az a RepartitionByExpression (SPARK-36703) gyermeke
- Eltávolítja a külső illesztést, ha csak a DISTINCT van a streamelt oldalon aliassal (SPARK-37292)
- Ha a gyermek már rendezve van ( SPARK-37455)
- Csak akkor csukja össze a projekteket, ha nem duplikáljuk a drága kifejezéseket (SPARK-36718)
- Redundáns aliasok eltávolítása a RewritePredicateSubquery (SPARK-36280) után
- Nem korrelált skaláris alhálózatok egyesítése (SPARK-34079)
- Particionálás
- Ne adjon hozzá dinamikus partíciómetszetet, ha létezik statikus partíciómetszet (SPARK-38148)
- RebalancePartitions javítása az Optimizer szabályaiban (SPARK-37904)
- Kis partíciótényező hozzáadása az újraegyensúlyozási partíciókhoz (SPARK-37357)
- Csatlakozik
- Finomhangolási logika a Broadcast hash illesztés lefokozásához a DynamicJoinSelectionben (SPARK-37753)
- A duplikált illesztési kulcsok figyelmen kívül hagyása a SEMI/ANTI egyesítési kivonat illesztés relációjának létrehozásakor (SPARK-36794)
- Támogatja a ferde illesztés optimalizálását még akkor is, ha extra shuffle-t vezet be (SPARK-33832)
- AQE
- Támogatás az AQE Optimizer (SPARK-36424) korlátainak megszüntetéséhez
- Egy sorterv optimalizálása normál állapotban és AQE-optimalizáló (SPARK-38162)
- Aggregate.groupOnly támogatja az összecsukható kifejezéseket (SPARK-38489)
- A ByteArrayMethods arrayEquals-nek gyorsan át kell hagynia a nem elaltatott platformhoz való igazítás ellenőrzését (SPARK-37796)
- Famintás metszés hozzáadása a CTESubstitution szabályhoz (SPARK-37379)
- További nem operátoros egyszerűsítések hozzáadása (SPARK-36665)
- A BooleanType támogatása a UnwrapCastInBinaryComparisonban (SPARK-36607)
- A Coalesce elveti az összes kifejezést az első nem null értékű kifejezés (SPARK-36359) után
- Logikai terv látogatójának hozzáadása a különböző attribútumok propagálásához (SPARK-36194)
Beépített összekötők fejlesztései
- Általános
- A datetime elenyenes szerializálása adatforrásból (SPARK-38437)
- A tábla helyének abszolútként való kezelése, ha az elérési út első betűje perjeles a create/alter táblában (SPARK-38236)
- Kezdő nullák eltávolítása üres statikus számtípusú partícióból (SPARK-35561)
- Támogatási
ignoreCorruptFiles
ésignoreMissingFiles
adatforrás-beállítások (SPARK-38767) SHOW CATALOGS
Parancs hozzáadása (SPARK-35973)
- Parketta
- Sémaoszlopnevek egyeztetésének engedélyezése mezőazonosítók szerint (SPARK-38094)
- Mezőnév eltávolítása az adatok parquetben való olvasása/írása során (SPARK-27442)
- A vektorizált olvasási logikai értékek támogatása RLE-kódolást használ a Parquet DataPage V2-vel (SPARK-37864)
- Parquet v2 adatoldal kódolásának (DELTA_BINARY_PACKED) támogatása a vektoros elérési úthoz (SPARK-36879)
- Időbélyegek újrabázisa a Parquet/Avro metaadatokban mentett munkamenet-időzónában (SPARK-37705)
- Csoport leküldése partícióoszloponként összesítéshez (SPARK-36646)
- A parquet (SPARK-36645) összesített (Min/Max/Count) leküldése
- Parquet: egyező sémaoszlopok engedélyezése mezőazonosító szerint (SPARK-38094)
- G1GC és ON_HEAP használata esetén csökkentse az alapértelmezett oldalméretet LONG_ARRAY_OFFSET (SPARK-37593)
- Vektorizált DELTA_BYTE_ARRAY és DELTA_LENGTH_BYTE_ARRAY kódolás implementálása a Parquet V2 támogatásához (SPARK-37974)
- Összetett típusok támogatása parquet vektoros olvasóhoz (SPARK-34863)
- ORK
- Meglévő adatok orc nyelven való olvasása/írásakor a jelölőnégyzet nevének eltávolítása (SPARK-37965)
- Összesítő leküldés az ORC-hez (SPARK-34960)
- ANSI-intervallumok olvasásának és írásának támogatása ORC-adatforrások között (SPARK-36931)
- Csak számozott oszlopnevek támogatása ORC-adatforrásokban (SPARK-36663)
- JSON
- A JSON-olvasóban (SPARK-38060) az idézett NaN- és Infinity-értékek elemzésekor figyelembe kell venni az allowNonNumericNumbers értéket.
- A CAST használata alapértelmezés szerint a CSV/JSON dátumidejéhez (SPARK-36536)
- Nem támogatott kulcstípusok igazítása hibaüzenet a MapType-ban json-olvasóban (SPARK-35320)
- CSV
- Javítás a CSV sérült rekordoszlopára hivatkozva (SPARK-38534)
- a null értékeket az üres "" sztringek helyett alapértelmezés szerint semmiként kell menteni (SPARK-37575)
- JDBC
- Adja hozzá az AZONNALI utasítást a DB2 dialektus csonkolási implementációhoz (SPARK-30062)
- Kaptár
- Hive gyűjtőtáblák (Hive-fájlformátumok Hive-kivonattal) (SPARK-32712) írásának támogatása
- Kifejezések használata Hive-partíciók ügyféloldali szűréséhez (SPARK-35437)
- A HiveTableScanExec (SPARK-36876) dinamikus partícióinak metszésének támogatása
- Az InsertIntoHiveDirnek adatforrást kell használnia, ha átalakítható (SPARK-38215)
- Hive-gyűjtős táblázat írásának támogatása (Parquet/ORC formátum Hive kivonattal) (SPARK-32709)
Csomópont leszerelése
- A FallbackStorage nem próbálja meg feloldani a tetszőleges "távoli" gazdagépnevet (SPARK-38062)
- A ExecutorMonitor.onExecutorRemoved az ExecutorDecommission befejezettként történő kezelését kell kezelnie (SPARK-38023)
Egyéb jelentős változások
- Részletes zárolás hozzáadása a BlockInfoManagerhez (SPARK-37356)
- Spark GPU/fpga erőforrástípusok egyéni YARN-erőforrástípusra való leképezésének támogatása (SPARK-37208)
- Pontos shuffle blokkméret jelentése ferdeség esetén (SPARK-36967)
- Netty-naplózás támogatása a hálózati rétegben (SPARK-36719)
Strukturált streamelés
Főbb funkciók
- A Trigger.AvailableNow bemutatása streamlekérdezések, például trigger.egyszer több kötegben való futtatásához (SPARK-36533)
Egyéb jelentős változások
- A StatefulOpClusteredDistribution használata állapotalapú operátorokhoz a visszamenőleges kompatibilitás tiszteletben tartásával (SPARK-38204)
- FlatMapGroupsWithState időtúllépés javítása kötegben kulcsadatokkal (SPARK-38320)
- Kijavítottuk a stream-stream külső csatlakoztatásának helyességi problémáját a RocksDB állapottároló szolgáltatójával (SPARK-38684)
- A Trigger.AvailableNow támogatása a Kafka-adatforráson (SPARK-36649)
- Az írási útvonal optimalizálása a RocksDB állapottároló-szolgáltatóján (SPARK-37224)
- Új adatforrás bevezetése, amely konzisztens sorokat biztosít mikrobatchenként (SPARK-37062)
- A HashClusteredDistribution használata állapotalapú operátorokhoz a visszamenőleges kompatibilitás tiszteletben tartásával (SPARK-38204)
PySpark
Pandas API a Sparkban
Jelentős fejlesztések
- "elosztott szekvencia" indexoptimalizálás alapértelmezett értékekkel (SPARK-36559, SPARK-36338)
- Az indextípus és -név megadásának támogatása a Pandas API-ban a Sparkon (SPARK-36709)
- Alapértelmezett indextípus megjelenítése a Sparkon futó Pandas API SQL-csomagjaiban (SPARK-38654)
Főbb funkciók
- SparkSQL natív ps.merge_asof implementálása (SPARK-36813)
- A TimedeltaIndex támogatása a Pandas API-ban a Sparkon (SPARK-37525)
- Python timedelta támogatása (SPARK-37275, SPARK-37510)
- Függvények implementálása a CategoricalAccessor/CategoricalIndex (SPARK-36185) alkalmazásban
- Python szabványos sztringformázóját használja az SQL API-hoz a Sparkon futó Pandas API-ban (SPARK-37436)
- A timedelta Series/Index (SPARK-37510) alapműveleteinek támogatása
- Támogatás ps. MultiIndex.dtypes (SPARK-36930)
- Index.map implementálása (SPARK-36469)
- Adatsor implementálása.xor és Series.rxor (SPARK-36653)
- Implementálja az integrál ps nem kívánt operátorát
invert
. Sorozat/index (SPARK-36003) - DataFrame.cov implementálása (SPARK-36396)
- Támogatás str és időbélyeg a (Series|DataFrame).describe() (SPARK-37657)
- A (SPARK-38763) lambda
column
paraméterénekDataFrame.rename
támogatása
Egyéb jelentős változások
Kompatibilitástörő változások
- A Python 3.6-támogatásra mutató hivatkozások elvetése dokumentumokban és python/docsokban (SPARK-36977)
- Távolítsa el a namedtuple hacket a beépített savanyúság cloudpickle-ra való cseréjével (SPARK-32079)
- A pandas minimális verziója az 1.0.5-ös verzióra (SPARK-37465)
- Jelentős fejlesztések
- Adjon meg egy profilozót a Python/Pandas UDF-ekhez (SPARK-37443)
- Python szabványos sztringformázóját használja az SQL API-hoz a PySparkban (SPARK-37516)
- SQL-állapot és hibaosztály elérhetővé helyezése PySpark-kivételekben (SPARK-36953)
- Próbálja meg rögzíteni a faulthanldert, amikor egy Python-feldolgozó összeomlik (SPARK-36062)
Főbb funkciók
- DataFrame.mapInArrow implementálása Pythonban (SPARK-37228)
- Python szabványos sztringformázóját használja az SQL API-hoz a PySparkban (SPARK-37516)
- df.withMetadata pyspark API hozzáadása (SPARK-36642)
- Python timedelta támogatása (SPARK-37275)
- TableExists felfedés a pyspark.sql.catalog-ban (SPARK-36176)
- DatabaseExists közzétételére pyspark.sql.catalog (SPARK-36207)
- FunctionExists felfedés a pyspark sql-katalógusában (SPARK-36258)
- Dataframe.observation hozzáadása a PySparkhoz (SPARK-36263)
- Max_by/min_by API hozzáadása a PySparkhoz (SPARK-36972)
- Beágyazott diktálás strukturáltként való következtetésének támogatása DataFrame létrehozásakor (SPARK-35929)
- Bit/octet_length API-k hozzáadása a Scalához, a Pythonhoz és az R-hez (SPARK-36751)
- ILIKE API támogatása Pythonon (SPARK-36882)
- IsEmpty metódus hozzáadása a Python DataFrame API-hoz (SPARK-37207)
- Több oszlop hozzáadása támogatással (SPARK-35173)
- SparkContext.addArchive hozzáadása a PySparkban (SPARK-38278)
- Sql-típusismertetők eval-able (SPARK-18621) létrehozása
- Beágyazott típustippek a python/pyspark/mllib fpm.py (SPARK-37396)
- A (SPARK-38837) implementálási
dropna
paramétereSeriesGroupBy.value_counts
MLLIB
Főbb funkciók
- Add distanceMeasure param to trainKMeansModel (SPARK-37118)
- LogisticRegression.setInitialModel, például KMeans et al do (SPARK-36481)
- A CrossValidatorModel támogatása az egyes paramMap-objektumok metrikáinak szórását kapja meg (SPARK-36425)
Jelentős fejlesztések
- Egyes treeAggregate-ek optimalizálása az MLlibben a foglalások késleltetésével (SPARK-35848)
- _shared_params_code_gen.py átírása az ml/param/shared.py (SPARK-37419) beágyazott típusú tippjeire
Egyéb jelentős változások
- Frissítés a breeze 1.2-hez (SPARK-35310)
SparkR
- SparkR-dokumentumok migrálása pkgdownba (SPARK-37474)
- Make_date kifejezés elérhetővé helyezése az R-ben (SPARK-37108)
- Max_by/min_by API hozzáadása a SparkR-hez (SPARK-36976)
- ILIKE API támogatása az R-en (SPARK-36899)
- Mp és csc hozzáadása R-függvényként (SPARK-36824)
- Bit/octet_length API-k hozzáadása a Scalához, a Pythonhoz és az R-hez (SPARK-36751)
- Kiságy hozzáadása R-függvényként (SPARK-36688)
Felhasználói felület
- Spekulációs metrikák összegzése fázisszinten (SPARK-36038)
- Egyesített shuffle olvasási blokk ideje az olvasási beolvasás várakozási idejének a StagePage-ben való elegyedéséhez (SPARK-37469)
- Módosított konfigurációk hozzáadása SQL-végrehajtáshoz a felhasználói felületen (SPARK-34735)
- A ThriftServer felismerése spark.sql.redaction.string.regex (SPARK-36400)
- Kezelő csatolása és indítása az alkalmazás felhasználói felületen való elindítása után (SPARK-36237)
- Véglegesítési időtartam hozzáadása az SQL Tab gráfcsomóponthoz (SPARK-34399)
- A RocksDB háttérrendszer támogatása a Spark History Serverben (SPARK-37680)
- A Pandas API beállításainak megjelenítése a Sparkban a felhasználói felületen (SPARK-38656)
- Nevezze át az "SQL" nevet "SQL/ DataFrame" névre az SQL felhasználói felületén (SPARK-38657)
Létrehozás
- Migrálás a log4j 1-ről a log4j 2-re (SPARK-37814)
- A log4j2 frissítése 2.17.2-re (SPARK-38544)
- Frissítés Py4J 0.10.9.5-re (SPARK-38563)
- ORC frissítése 1.7.4-re (SPARK-38866)
- Adattáblák frissítése az 1.10.25-ös verzióra (SPARK-38924)
Karbantartási frissítések
Lásd: Databricks Runtime 11.0 (EoS).
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 1.2.1
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-rolling) | argon2-cffi | 20.1.0 | aszinkron generátor | 1.10 |
attrs | 21.2.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
fehérítő | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
minősítés | 2021.10.8 | cffi | 1.14.6 | karakterkészlet | 4.0.0 |
charset-normalizer | 2.0.4 | biciklista | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | hibakeresés | 1.4.1 | lakberendező | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.4 | distro-info | 0,23ubuntu1 |
belépési pontok | 0.3 | aspektusok áttekintése | 1.0.0 | filelock | 3.6.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgetek | 1.0.0 | kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
mistune | 0.8.4 | nbclient | 0.5.3 | nbconvert | 6.1.0 |
nbformat | 5.1.3 | nest-asyncio | 1.5.1 | jegyzetfüzet | 6.4.5 |
numpy | 1.20.3 | csomagolás | 21,0 | pandas | 1.3.4 |
pandocfilters | 1.4.3 | parso | 0.8.2 | Patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Párna | 8.4.0 |
mag | 21.2.4 | platformdirs | 2.5.2 | ábrázolás | 5.6.0 |
prometheus-client | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 3.20.1 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pyrsistent | 0.18.0 | python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 |
pytz | 2021.3 | pyzmq | 22.2.1 | kérelmek | 2.26.0 |
requests-unixsocket | 0.2.0 | s3transfer | 0.5.2 | scikit-learn | 0.24.2 |
scipy | 1.7.1 | tengeri | 0.11.2 | Send2Trash | 1.8.0 |
setuptools | 58.0.4 | Hat | 1.16.0 | ssh-import-id | 5.10 |
statsmodels | 0.12.2 | Kitartás | 8.0.1 | terminado | 0.9.4 |
testpath | 0.5.0 | threadpoolctl | 2.2.0 | tornádó | 6.1 |
árulók | 5.1.0 | felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.7 |
virtualenv | 20.8.0 | wcwidth | 0.2.5 | webencodings | 0.5.1 |
kerék | 0.37.0 | widgetsnbextension | 3.6.0 |
Telepített R-kódtárak
Az R-kódtárak a Microsoft CRAN-pillanatképből vannak telepítve 2022.05.06-án.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backports | 1.4.1 |
alap | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | indítás | 1.3-28 |
főz | 1.0-7 | Brio | 1.1.3 | seprű | 0.8.0 |
bslib | 0.3.1 | gyorsítótár | 1.0.6 | hívó | 3.7.0 |
kalap | 6.0-92 | cellranger | 1.1.0 | chron | 2.3-56 |
osztály | 7.3-20 | Cli | 3.3.0 | clipr | 0.8.0 |
fürt | 2.1.3 | kódtoolok | 0.2-18 | színtér | 2.0-3 |
commonmark | 1.8.0 | fordítóprogram | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | zsírkréta | 1.5.1 | hitelesítő adatok | 1.3.2 |
csavarodik | 4.3.2 | data.table | 1.14.2 | adatkészletek | 4.1.3 |
DBI | 1.1.2 | dbplyr | 2.1.1 | Desc | 1.4.1 |
devtools | 2.4.3 | diffobj | 0.3.5 | emészt | 0.6.29 |
dplyr | 1.0.9 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
három pont | 0.3.2 | evaluate | 0,15 | fani | 1.0.3 |
farver | 2.1.0 | gyorstérkép | 1.1.0 | fontawesome | 0.2.2 |
forcats | 0.5.1 | foreach | 1.5.2 | külföldi | 0.8-82 |
kovácsol | 0.2.0 | Fs | 1.5.2 | jövő | 1.25.0 |
future.apply | 1.9.0 | gargarizál | 1.2.0 | Generikus | 0.1.2 |
Gert | 1.6.0 | ggplot2 | 3.3.6 | Gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-4 | globális | 0.14.0 |
ragasztó | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
Gower | 1.0.0 | grafika | 4.1.3 | grDevices | 4.1.3 |
rács | 4.1.3 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.0 | hardhat | 0.2.0 | kikötő | 2.5.0 |
highr | 0,9 | Hms | 1.1.1 | htmltoolok | 0.5.2 |
htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.3 |
Azonosítók | 1.0.1 | ini | 0.3.1 | ipred | 0.9-12 |
izoband | 0.2.5 | iterátorok | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.0 | KernSmooth | 2.23-20 | knitr | 1.39 |
címkézés | 0.4.2 | később | 1.3.0 | rács | 0.20-45 |
láva | 1.6.10 | életciklus | 1.0.1 | figyelő | 0.8.0 |
lubridate | 1.8.0 | magrittr | 2.0.3 | markdown | 1,1 |
TÖMEG | 7.3-56 | Mátrix | 1.4-1 | memoise | 2.0.1 |
metódusok | 4.1.3 | mgcv | 1.8-40 | MIME | 0,12 |
ModelMetrics | 1.2.2.2 | modellező | 0.1.8 | munsell | 0.5.0 |
nlme | 3.1-157 | nnet | 7.3-17 | numDeriv | 2016.8-1.1 |
openssl | 2.0.0 | parallel | 4.1.3 | párhuzamosan | 1.31.1 |
pillér | 1.7.0 | pkgbuild | 1.3.1 | pkgconfig | 2.0.3 |
pkgload | 1.2.4 | plogr | 0.2.0 | rétegelt | 1.8.7 |
dicséret | 1.0.0 | prettyunits | 1.1.1 | Proc | 1.18.0 |
processx | 3.5.3 | prodlim | 2019.11.13 | haladás | 1.2.2 |
progressr | 0.10.0 | Ígér | 1.2.0.1 | Proto | 1.0.0 |
helyettes | 0.4-26 | Ps | 1.7.0 | purrr | 0.3.4 |
r2d3 | 0.2.6 | R6 | 2.5.1 | randomForest | 4.7-1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.8.3 | RcppEigen | 0.3.3.9.2 | olvasó | 2.1.2 |
readxl | 1.4.0 | receptek | 0.2.0 | Visszavágót | 1.0.1 |
visszavágó2 | 2.1.2 | Távirányító | 2.4.2 | reprex | 2.0.1 |
újraformázás2 | 1.4.4 | rlang | 1.0.2 | rmarkdown | 2.14 |
RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1.16 |
rprojroot | 2.0.3 | Rserve | 1.8-10 | RSQLite | 2.2.13 |
rstudioapi | 0,13 | rversions | 2.1.1 | rvest | 1.0.2 |
Sass | 0.4.1 | mérleg | 1.2.0 | választó | 0.4-2 |
sessioninfo | 1.2.2 | alak | 1.4.6 | Fényes | 1.7.1 |
sourcetools | 0.1.7 | sparklyr | 1.7.5 | SparkR | 3.3.0 |
térbeli | 7.3-11 | splines | 4.1.3 | sqldf | 0.4-11 |
NÉGYZET | 2021.1 | statisztika | 4.1.3 | statisztikák4 | 4.1.3 |
stringi | 1.7.6 | sztring | 1.4.0 | túlélés | 3.2-13 |
sys | 3.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
tibble | 3.1.7 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
tidyverse | 1.3.1 | timeDate | 3043.102 | tinytex | 0,38 |
eszközök | 4.1.3 | tzdb | 0.3.0 | usethis | 2.1.5 |
utf8 | 1.2.2 | eszközök | 4.1.3 | uuid | 1.1-0 |
vctrs | 0.4.1 | viridisLite | 0.4.0 | vroom | 1.5.7 |
Waldo | 0.4.0 | bajusz | 0,4 | withr | 2.5.0 |
xfun | 0,30 | xml2 | 1.3.3 | xopen | 1.0.0 |
xtable | 1.8-4 | yaml | 2.3.5 | fütyülés | 2.2.0 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natívok | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natívok | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Csellengő | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.4.0 |
io.dropwizard.metrics | metrikamag | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
maven-fák | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pác | 1,2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | nyílformátum | 7.0.0 |
org.apache.arrow | nyíl-memóriamag | 7.0.0 |
org.apache.arrow | nyíl-memória-netty | 7.0.0 |
org.apache.arrow | nyíl-vektor | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | borostyán | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.4 |
org.apache.orc | orc-mapreduce | 1.7.4 |
org.apache.orc | orc-shims | 1.7.4 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-kódolás | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | célközönség-széljegyzetek | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | móló-folytatás | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | móló plusz | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
org.glassfish.jersey.core | jersey-client | 2,34 |
org.glassfish.jersey.core | jersey-common | 2,34 |
org.glassfish.jersey.core | jersey-server | 2,34 |
org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Alátéteket | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,2 |
org.scalanlp | breeze_2.12 | 1,2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | Használatlan | 1.0.0 |
org.threeten | három-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | makró-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |