Databricks Runtime 13.1 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.4.0 által működtetett Databricks Runtime 13.1-ről nyújtanak információkat.
A Databricks 2023 májusában adta ki ezt a verziót.
Új funkciók és fejlesztések
- A JDK 17 fürttámogatása (nyilvános előzetes verzió)
- Adatok hozzáadása, módosítása vagy törlése streamelési táblákban
- Kafka olvasása SQL-lel
- Új beépített SQL-függvények
- Unity Catalog-támogatás fürt hatókörű Python-kódtárakhoz
- Bővített alapértelmezett engedélyezés optimalizált írásokhoz a Unity Katalógusban
- A strukturált streamelési számítási feladatok állapotalapú operátorainak speciális támogatása
- A Unity Catalog delta klónja nyilvános előzetes verzióban érhető el
- Pub/Altámogatás strukturált streameléshez
- Duplikált elemek elvetése a vízjeleken belül a strukturált streamelésben
- Bővített támogatás a Delta-átalakításokhoz Iceberg-táblákból csonkolt partícióoszlopokkal
- Sémamódosítások streamelése oszlopleképezéssel a Delta Lake-ben
- A START VERZIÓ eltávolítása
- Új H3-kifejezések érhetők el a Pythonban
A JDK 17 fürttámogatása (nyilvános előzetes verzió)
A Databricks mostantól fürttámogatást biztosít a Java Development Kit (JDK) 17-hez. Lásd: Databricks SDK for Java.
Adatok hozzáadása, módosítása vagy törlése streamelési táblákban
Mostantól DML-utasítások használatával módosíthatja a Unity Catalogban a Delta Live Tables-folyamatok által közzétett streamelési táblákat. Lásd: Adatok hozzáadása, módosítása vagy törlése egy streamelési táblában , valamint adatok hozzáadása, módosítása vagy törlése egy célstreamelési táblában. DML-utasítások használatával is módosíthatja a Databricks SQL-ben létrehozott streamelési táblákat.
Kafka olvasása SQL-lel
Most már használhatja az read_kafka
SQL-függvényt a Kafka-adatok olvasásához. Az SQL-sel való streamelés csak a Delta Live Tablesben vagy a Databricks SQL-ben futó streamtáblákban támogatott. Lásd read_kafka táblaértékű függvényt.
Új beépített SQL-függvények
A következő függvények lettek hozzáadva:
- array_prepend(tömb; elem) Előre felerősített
array
elem
értéket ad vissza. - try_aes_decrypt(expr, key [, mode [, padding]]) Az AES-titkosítással előállított bináris kód visszafejtése, és hiba esetén visszaadja
NULL
. - sql_keywords() Az Azure Databricks SQL-kulcsszavak tábláját adja vissza.
Unity Catalog-támogatás fürt hatókörű Python-kódtárakhoz
A Unity Catalog bizonyos korlátozásokkal rendelkezik a könyvtárhasználatra vonatkozóan. A Databricks Runtime 13.1-ben és újabb verziókban a fürt hatókörű Python-kódtárak támogatottak, beleértve a munkaterületfájlokként feltöltött Python-kerekes fájlokat is. A DBFS-fájlpathokkal hivatkozott kódtárak nem támogatottak, akár a DBFS-gyökérben, akár a DBFS-hez csatlakoztatott külső helyen. A nem Python-kódtárak nem támogatottak. Lásd: Fürtkódtárak.
A Databricks Runtime 13.0-s és újabb verzióban a fürt hatókörű kódtárai nem támogatottak olyan fürtökön, amelyek megosztott hozzáférési módot használnak egy Unity Katalógus-kompatibilis munkaterületen.
Bővített alapértelmezett engedélyezés optimalizált írásokhoz a Unity Katalógusban
A Unity Katalógusban regisztrált Delta-táblák alapértelmezett optimalizált írási támogatása kibővült CTAS
a particionált táblákra vonatkozó utasításokra és INSERT
műveletekre. Ez a viselkedés az SQL-raktárak alapértelmezett értékéhez igazodik. Lásd: Optimalizált írások a Delta Lake-hez az Azure Databricksben.
A strukturált streamelési számítási feladatok állapotalapú operátorainak speciális támogatása
Mostantól több állapotalapú operátort is összekapcsolhat, ami azt jelenti, hogy egy művelet kimenetét, például egy ablakos összesítést egy másik állapotalapú művelethez, például egy illesztéshez táplálhatja. Lásd : Mi az állapotalapú streamelés?.
A Unity Catalog delta klónja nyilvános előzetes verzióban érhető el
Most már használhatja a sekély klónt új, felügyelt Unity Catalog-táblák létrehozásához a Unity Catalog meglévő felügyelt tábláiból. Lásd: Shallow clone for Unity Catalog tables.
Pub/Altámogatás strukturált streameléshez
Mostantól egy beépített összekötővel feliratkozhat a Google Pub/Sub szolgáltatásra strukturált streameléssel. Lásd: Feliratkozás a Google Pub/Sub szolgáltatásra.
Duplikált elemek elvetése a vízjeleken belül a strukturált streamelésben
Mostantól dropDuplicatesWithinWatermark
egy megadott vízjel küszöbértékével kombinálva deduplikálhatja a rekordokat a strukturált streamelésben. Lásd: Duplikált elemek elvetése a vízjelen belül.
Bővített támogatás a Delta-átalakításokhoz Iceberg-táblákból csonkolt partícióoszlopokkal
Mostantól használhat CLONE
CONVERT TO DELTA
olyan Iceberg-táblákat, amelyek csonkolt típusú int
oszlopokon definiált partíciókat tartalmaznak, long
és string
. A csonkolt típusú decimal
oszlopok nem támogatottak.
Sémamódosítások streamelése oszlopleképezéssel a Delta Lake-ben
Most már megadhat egy sémakövetési helyet a Delta-táblákból való streamelés engedélyezéséhez, ha engedélyezve van az oszlopleképezés. Lásd: Streamelés oszlopleképezéssel és sémamódosításokkal.
A START VERZIÓ eltávolítása
START VERSION
mostantól elavult a következőre ALTER SHARE
: .
Új H3-kifejezések érhetők el a Pythonban
A h3_coverash3
kifejezések és h3_coverash3string
kifejezések a Pythonban érhetők el.
Hibajavítások
A parquet failOnUnknownFields már nem ejti el csendben az adatokat a típuseltérésről
Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel olvastak a failOnUnknownFields
failOnNewColumns
sémafejlődési módban, a különböző adattípusokkal rendelkező oszlopok most már nem használhatók, és a használatát rescuedDataColumn
javasolják. Az Automatikus betöltő mostantól helyesen olvassa be az egész, a rövid vagy a bájttípust, ha az egyik ilyen adattípus meg van adva. A Parquet-fájl a másik két típus egyikét javasolja.
Kompatibilitástörő változások
Frissítse az sqlite-jdbc verziót a 3.42.0.0-ra a CVE-2023-32697 címre
Frissítse az sqlite-jdbc verziót a 3.8.11.2-es verzióról a 3.42.0.0-s verzióra. A 3.42.0.0-s verzió API-k nem teljes mértékben kompatibilisek a 3.8.11.2-es verzióval. Ha sqlite-jdbc-t használ a kódban, a részletekért tekintse meg az sqlite-jdbc kompatibilitási jelentését. Ha a 13.1-es verzióra migrál, és sqlite-t használ, erősítse meg a metódusokat, és adja vissza a típust a 3.42.0.0-s verzióban.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- aspektusok áttekintése 1.0.2-től 1.0.3-ra
- filelock 3.10.7-től 3.12.0-ra
- pyarrow 7.0.0 és 8.0.0 között
- 8.0.1 és 8.1.0 közötti kitartás
- Frissített R-kódtárak:
- Frissített Java-kódtárak:
- com.github.ben-manes.koffein.koffein 2.3.4 és 2.9.3 között
- io.delta.delta-sharing-spark_2.12 0.6.8–0.6.4
- net.snowflake.snowflake-jdbc 3.13.29-től 3.13.22-ig
- org.checkerframework.checker-qual 3.5.0-tól 3.19.0-ra
- org.scalactic.scalactic_2.12 3.0.8 és 3.2.15 között
- org.scalatest.scalatest_2.12 3.0.8 és 3.2.15 között
- org.xerial.sqlite-jdbc 3.8.11.2-től 3.42.0.0-ig
Apache Spark
A Databricks Runtime 13.1 tartalmazza az Apache Spark 3.4.0-t. Ez a kiadás tartalmazza a Databricks Runtime 13.0 (EoS) összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-42719] [DBRRM-199][SC-131578] "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][SC-130056][CORE] Visszaállítás [SC-127830]/
- [SPARK-43331] [SC-130064][CONNECT] Spark Connect SparkSession.interruptAll hozzáadása
- [SPARK-43332] [SC-130051][CONNECT][PYTHON] A ChannelBuilder kiterjesztése a SparkConnectClienthez
- [SPARK-43323] [SC-129966][SQL][PYTHON] A DataFrame.toPandas javítása a kivételek megfelelő kezeléséhez engedélyezett nyíllal
- [SPARK-42940] [SC-129896][SS][CONNECT] A streamelési lekérdezések munkamenet-kezelésének javítása
- [SPARK-43032] [SC-125756] [CONNECT][SS] Streamelési lekérdezéskezelő hozzáadása
- [SPARK-16484] [SC-129975][SQL] A Datasketches HllSketch támogatásának hozzáadása
- [SPARK-43260] [SC-129281][PYTHON] A Spark SQL Pandas nyíltípus hibáinak migrálása hibaosztályba.
- [SPARK-41766] [SC-129964][CORE] A végrehajtó regisztrációja előtt küldött leszerelési kérelem kezelése
- [SPARK-43307] [SC-129971][PYTHON] PandasUDF-értékhibák migrálása hibaosztályba
- [SPARK-43206] [SC-129903] [SS] [CONNECT] StreamingQuery exception() include stack trace
- [SPARK-43311] [SC-129905][SS] A RocksDB állapottároló-szolgáltató memóriakezelési fejlesztéseinek hozzáadása
- [SPARK-43237] [SC-129898][CORE] Null kivétel üzenetének kezelése az eseménynaplóban
- [SPARK-43320] [SC-129899][SQL][HIVE] Hive 2.3.9 API közvetlen meghívása
- [SPARK-43270] [SC-129897][PYTHON] Implementálás
__dir__()
oszlopokpyspark.sql.dataframe.DataFrame
belefoglalásához - [SPARK-43183] Visszaállítás "[SC-128938][SS] Új visszahívás bevezetése "...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][SQL] Cserélje le a _LEGACY_ERROR_TEMP_2022 hibaosztályt egy belső hibára
- [SPARK-43198] [SC-129470][CONNECT] "Nem sikerült inicializálni az osztály ammonite..." hiba a szűrő használatakor
- [SPARK-43165] [SC-129777][SQL] CanWrite áthelyezése a DataTypeUtils szolgáltatásba
- [SPARK-43298] [SC-129729][PYTHON][ML] a skaláris bemenettel rendelkező predict_batch_udf egy kötegmérettel meghiúsul
- [SPARK-43298] [SC-129700]A(z) "[PYTHON][ML] predict_batch_udf skaláris bemenettel való visszaállítása meghiúsul egy kötegmérettel"
- [SPARK-43052] [SC-129663][CORE] Stacktrace kezelése null fájlnévvel az eseménynaplóban
- [SPARK-43183] [SC-128938][SS] Az "onQueryIdle" új visszahívásának bevezetése a StreamingQueryListenerbe
- [SPARK-43209] [SC-129190][CONNECT][PYTHON] Kifejezéshibák migrálása hibaosztályba
- [SPARK-42151] [SC-128754][SQL] UPDATE-hozzárendelések igazítása táblaattribútumokhoz
- [SPARK-43134] [SC-129468] [CONNECT] [SS] JVM-ügyfél StreamingQuery exception() API
- [SPARK-43298] [SC-129699][PYTHON][ML] a skaláris bemenettel rendelkező predict_batch_udf egy kötegmérettel meghiúsul
- [SPARK-43248] [SC-129660][SQL] Az elérési út szükségtelen szerializálása/deszerializálása párhuzamos partícióstatisztikákon
- [SPARK-43274] [SC-129464][SPARK-43275][PYTHON][CONNECT] Bevezet
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][CONNECT][PYTHON] A repr és a repr_html lelkes kiértékelése
- [SPARK-42953] [SC-129469][Csatlakozás][Nyomon követés] Maven-teszt build javítása Scala-ügyfél UDF-tesztjeihez
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][CONNECT] GroupByKey + mapGroup + coGroup függvények hozzáadása
- [SPARK-43156] [SC-129672][SC-128532][SQL] A korrelált skaláris subquery hiba kijavítása
COUNT(*) is null
- [SPARK-43046] [SC-129110] [SS] [Csatlakozás] Implementált Python API dropDuplicatesWithinWatermark for Spark Connect
- [SPARK-43199] [SC-129467][SQL] InlineCTE idempotenssé tétele
- [SPARK-43293] [SC-129657][SQL]
__qualified_access_only
a normál oszlopokban figyelmen kívül kell hagyni - [SPARK-43276] [SC-129461][CONNECT][PYTHON] Spark Connect-ablak hibáinak migrálása hibaosztályba
- [SPARK-43174] [SC-129109][SQL] SparkSQLCLIDriver-kiegészítés javítása
- [SPARK-43084] [SC-128654] [SS] ApplyInPandasWithState támogatás hozzáadása spark connecthez
- [SPARK-43119] [SC-129040][SQL] SQL-kulcsszavak dinamikus lekérésének támogatása A JDBC API és a TVF használatával
- [SPARK-43082] [SC-129112][CONNECT][PYTHON] Nyíloptimalizált Python UDF-ek a Spark Connectben
- [SPARK-43085] [SC-128432][SQL] A többrészes táblanevek ALAPÉRTELMEZETT oszlop-hozzárendelésének támogatása
- [SPARK-43226] [LC-671] A fájlállandó metaadatok kinyerőinek definiálása
- [SPARK-43210] [SC-129189][CONNECT][PYTHON] Bevezet
PySparkAssertionError
- [SPARK-43214] [SC-129199][SQL] A LocalTableScanExec/CommandResultExec illesztőprogram-oldali metrikáinak közzététele
- [SPARK-43285] [SC-129347] A ReplE2ESuite konzisztens meghibásodásának javítása a JDK 17-zel
- [SPARK-43268] [SC-129249][SQL] Megfelelő hibaosztályok használata, ha a kivételek üzenettel vannak létrehozva
- [SPARK-43142] [SC-129299] Speciális karaktereket tartalmazó attribútumok DSL-kifejezéseinek javítása
- [SPARK-43129] [SC-128896] Scala core API a Spark Connect streameléshez
- [SPARK-43233] [SC-129250] [SS] Naplózás hozzáadása a Kafka Batch Readinghez témakörpartícióhoz, eltolástartományhoz és tevékenységazonosítóhoz
- [SPARK-43249] [SC-129195][CONNECT] Az SQL Command hiányzó statisztikáinak javítása
- [SPARK-42945] [SC-129188][CONNECT] Támogatási PYSPARK_JVM_STACKTRACE_ENABLED a Spark Connectben
- [SPARK-43178] [SC-129197][CONNECT][PYTHON] UDF-hibák migrálása a PySpark hibakeretébe
- [SPARK-43123] [SC-128494][SQL] A belső mező metaadatait nem szabad kiszivárogtatni a katalógusokbe
- [SPARK-43217] [SC-129205] Megfelelően ismétlődik a beágyazott térképekben/tömbökben a findNestedFieldben
- [SPARK-43243] [SC-129294][PYTHON][CONNECT] Szint param hozzáadása a PrintSchema for Pythonhoz
- [SPARK-43230] [SC-129191][CONNECT] Egyszerűsít
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][SQL] Respect RequiresDistributionAndOrdering in CTAS/RTAS
- [SPARK-43234] [SC-129192][CONNECT][PYTHON] Migrálás
ValueError
a Conect DataFrame-ből hibaosztályba - [SPARK-43212] [SC-129187][SS][PYTHON] Strukturált streamelési hibák migrálása hibaosztályba
- [SPARK-43239] [SC-129186][PS] Eltávolítás
null_counts
az információból() - [SPARK-43190] [SC-128930][SQL] A ListQuery.childOutput értéknek konzisztensnek kell lennie a gyermekkimenettel
- [SPARK-43191] [SC-128924][CORE] A Hadoop CallerContext tükrözési w/ közvetlen hívásának cseréje
- [SPARK-43193] [SC-129042][SS] A HADOOP-12074 megkerülő megoldásának eltávolítása
- [SPARK-42657] [SC-128621][CONNECT] Ügyféloldali REPL-osztályfájlok keresése és átvitele a kiszolgálóra összetevőként
- [SPARK-43098] [SC-77059][SQL] Kijavítottuk a helyességi DARAB hibát, ha a skaláris subquery záradék szerint csoportosítva van
- [SPARK-43213] [SC-129062][PYTHON] Hozzáadás
DataFrame.offset
a vanilla PySparkhoz - [SPARK-42982] [SC-128400][CONNECT][PYTHON] A createDataFrame javítása az adott séma ddl-jének tiszteletben tartásához
- [SPARK-43124] [SC-129011][SQL] Dataset.show projects CommandResults helyileg
- [SPARK-42998] [SC-127422][CONNECT][PYTHON] A DataFrame.collect javítása null szerkezettel
- [SPARK-41498] [SC-125343]"Metaadatok propagálása az Unión keresztül" visszaállítása
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Await_termination() és exception() API hozzáadása streamlekérdezéshez Pythonban
- [SPARK-42552] [SC-128824][SQL] Az antlr-elemző kétfázisú elemzési stratégiájának javítása
- [SPARK-43207] [SC-128937][CONNECT] Segédfüggvények hozzáadása a literális kifejezésből származó érték kinyeréséhez
- [SPARK-43186] [SC-128841][SQL][HIVE] A FileSinkDesc kerülő megoldásának eltávolítása
- [SPARK-43107] [SC-128533][SQL] A szórásos illesztés streamoldalán alkalmazott illesztésben lévő szenes gyűjtők
- [SPARK-43195] [SC-128922][CORE] Szükségtelen szerializálható burkoló eltávolítása a HadoopFSUtilsban
- [SPARK-43137] [SC-128828][SQL] Javítsa a ArrayInsertet, ha a pozíció összecsukható és pozitív.
- [SPARK-37829] [SC-128827][SQL] Dataframe.joinWith outer-join függvény null értéket ad vissza a nem egyező sorhoz
- [SPARK-43042] [SC-128602] [SS] [Csatlakozás] Table() API-támogatás hozzáadása a DataStreamReaderhez
- [SPARK-43153] [SC-128753][CONNECT] Spark-végrehajtás kihagyása, ha az adatkeret helyi
- [SPARK-43064] [SC-128496][SQL] A Spark SQL CLI SQL-lapjának csak egyszer kell megjelenítenie az utasítást
- [SPARK-43126] [SC-128447][SQL] Két Hive UDF-kifejezés megjelölése állapotalapúként
- [SPARK-43111] [SC-128750][PS][CONNECT][PYTHON] Beágyazott
if
utasítások egyesítése egyetlenif
utasításba - [SPARK-43113] [SC-128749][SQL] Streamoldali változók kiértékelése kötött feltétel kódjának létrehozásakor
- [SPARK-42895] [SC-127258][CONNECT] Leállított Spark-munkamenetek hibaüzeneteinek javítása
- [SPARK-42884] [SC-126662][CONNECT] Ammonite REPL-integráció hozzáadása
- [SPARK-43168] [SC-128674][SQL] A PhysicalDataType metódus lekérésének eltávolítása a Datatype osztályból
- [SPARK-43121] [SC-128455][SQL] Manuális másolás helyett használja
BytesWritable.copyBytes
a HiveInspectors - [SPARK-42916] [SC-128389][SQL] A JDBCTableCatalog megtartja a Char/Varchar meta-t az olvasási oldalon
- [SPARK-43050] [SC-128550][SQL] Összesítő kifejezések szerkezetének javítása csoportosítási függvények lecserélésével
- [SPARK-43095] [SC-128549][SQL] Kerülje el, ha a stratégia idempotenciája megszakadt a köteg esetében:
Infer Filters
- [SPARK-43130] [SC-128597][SQL] InternalType áthelyezése a PhysicalDataType fájlba
- [SPARK-43105] [SC-128456][CONNECT] Bájtok és sztringek rövidítése a proto üzenetben
- [SPARK-43099] [SC-128596][SQL] Szerkesztőosztálynév
getName
lekérésegetCanonicalName
helyett használja az udf függvényregisztrációs szolgáltatásba való regisztrálásakor - [SPARK-42994] [SC-128586][ML][CONNECT] A PyTorch-forgalmazó támogatja a helyi módot
- [SPARK-42859] "[SC-127935][CONNECT][PS] A Pandas API alapszintű támogatása a Spark Connecten"
- [SPARK-43021] [SC-128472][SQL]
CoalesceBucketsInJoin
nem működik az AQE használatakor - [SPARK-43125] [SC-128477][CONNECT] A Connect Server nem tudja kezelni a kivételt null üzenettel
- [SPARK-43147] [SC-128594] a flake8 lint javítása helyi ellenőrzéshez
- [SPARK-43031] [SC-128360] [SS] [Csatlakozás] Egységteszt és doctest engedélyezése streameléshez
- [SPARK-43039] [LC-67] A fájlforrás _metadata oszlop egyéni mezőinek támogatása.
- [SPARK-43120] [SC-128407][SS] Támogatás hozzáadása a rögzített blokkok memóriahasználatának nyomon követéséhez a RocksDB állapottárolójában
- [SPARK-43110] [SC-128381][SQL] Az asIntegral áthelyezése a PhysicalDataType fájlba
- [SPARK-43118] [SC-128398][SS] A KafkaMicroBatchStreamben található UninterruptibleThread szükségtelen állításának eltávolítása
- [SPARK-43055] [SC-128331][CONNECT][PYTHON] Duplikált beágyazott mezőnevek támogatása
- [SPARK-42437] [SC-128339][PYTHON][CONNECT] A PySpark catalog.cacheTable lehetővé teszi a tárolási szint megadását
- [SPARK-42985] [SC-128332][CONNECT][PYTHON] A createDataFrame javítása az SQL-konfigurációk tiszteletben tartásához
- [SPARK-39696] [SC-127830][CORE] Adatverseny javítása a TaskMetrics.externalAccums szolgáltatáshoz való hozzáférésben
- [SPARK-43103] [SC-128335][SQL] Az Integrál áthelyezése a PhysicalDataType-ba
- [SPARK-42741] [SC-125547][SQL] A bináris összehasonlításban ne bontsa ki a leadott elemeket, ha a literál értéke null
- [SPARK-43057] [SC-127948][CONNECT][PYTHON] Spark Connect-oszlophibák migrálása hibaosztályba
- [SPARK-42859] [SC-127935][CONNECT][PS] Alapszintű támogatás a Pandas API-hoz a Spark Connecten
- [SPARK-43013] [SC-127773][PYTHON] Migrálás
ValueError
a DataFrame-ből aPySparkValueError
. - [SPARK-43089] [SC-128051][CONNECT] Hibakeresési sztring ismételt használata a felhasználói felületen
- [SPARK-43028] [SC-128070][SQL] Hibaosztály hozzáadása SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][Csatlakozás] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][SQL] DropDuplicates teszt hozzáadása a JavaDatasetSuite-ban
- [SPARK-43075] [SC-127939][CONNECT] Váltson
gRPC
arra az állapotragrpcio
, amikor nincs telepítve. - [SPARK-42953] [SC-127809][Csatlakozás] Gépelt szűrő, térkép, síktérkép, mapPartitions
- [SPARK-42597] [SC-125506][SQL] Dátumtípus és időbélyeg típusának támogatása
- [SPARK-42931] [SC-127933][SS] DropDuplicatesWithinWatermark bemutatása
- [SPARK-43073] [SC-127943][CONNECT] Proto-adattípusok állandóinak hozzáadása
- [SPARK-43077] [SC-128050][SQL] A UNRECOGNIZED_SQL_TYPE hibaüzenetének javítása
- [SPARK-42951] [SC-128030][SS][Csatlakozás] DataStreamReader API-k
- [SPARK-43049] [SC-127846][SQL] A CLOB használata VARCHAR(255) helyett StringType for Oracle JDBC-hez
- [SPARK-43018] [SC-127762][SQL] Az INSERT-parancsok időbélyeg-literálokkal kapcsolatos hibájának javítása
- [SPARK-42855] [SC-127722][SQL] Futtatókörnyezeti null ellenőrzések használata a TableOutputResolverben
- [SPARK-43030] [SC-127847][SQL] Kapcsolatok deduplikálása metaadatoszlopokkal
- [SPARK-42993] [SC-127829][ML][CONNECT] A PyTorch-forgalmazó kompatibilissé tétele a Spark Connecttel
- [SPARK-43058] [SC-128072][SQL] Numerikus és törtérték áthelyezése PhysicalDataType-ba
- [SPARK-43056] [SC-127946][SS] A RocksDB állapottároló véglegesítésének csak akkor kell folytatnia a háttérmunkát, ha az szüneteltetve van
- [SPARK-43059] [SC-127947][CONNECT][PYTHON] TypeError migrálása a DataFrame-ből (Olvasó|Író) hibaosztályba
- [SPARK-43071] [SC-128018][SQL] A SELECT DEFAULT támogatása ORDER BY, LIMIT, OFFSET for INSERT forrásrelációval
- [SPARK-43061] [SC-127956][CORE][SQL] A PartitionEvaluator bemutatása AZ SQL-operátor végrehajtásához
- [SPARK-43067] [SC-127938][SS] Hibaosztály erőforrásfájljának helyének javítása a Kafka-összekötőben
- [SPARK-43019] [SC-127844][SQL] Rendezés áthelyezése PhysicalDataType-ba
- [SPARK-43010] [SC-127759][PYTHON] Oszlophibák migrálása hibaosztályba
- [SPARK-42840] [SC-127782][SQL] Hiba módosítása
_LEGACY_ERROR_TEMP_2004
belső hibára - [SPARK-43041] [SC-127765][SQL] Kivételek konstruktorainak visszaállítása az összekötő API kompatibilitásához
- [SPARK-42939] [SC-127761][SS][CONNECT] Alapvető streamelési Python API a Spark Connecthez
- [SPARK-42844] [SC-127766][SQL] A hibaosztály
_LEGACY_ERROR_TEMP_2008
frissítése a következőre:INVALID_URL
- [SPARK-42316] [SC-127720][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][CONNECT][PYTHON] Spark Connect DataFrame-hibák migrálása hibaosztályba
- [SPARK-42983] [SC-127717][CONNECT][PYTHON] A createDataFrame javítása a 0-dim numpy tömb megfelelő kezeléséhez
- [SPARK-42955] [SC-127476][SQL] A SparkThrowable classifyException és wrap AnalysisException kihagyása
- [SPARK-42949] [SC-127255][SQL] A NAAJ kódjának egyszerűsítése
- [SPARK-43011] [SC-127577][SQL]
array_insert
sikertelennek kell lennie 0 indextel - [SPARK-42974] [SC-127487][CORE] Visszaállítás
Utils.createTempDir
a módszer használatához és aShutdownHookManager
törléshezJavaUtils.createTempDir
. - [SPARK-42964] [SC-127585][SQL] A PosgresDialect '42P07' azt is jelenti, hogy a tábla már létezik
- [SPARK-42978] [SC-127351][SQL] Derby&PG: AZ ÁTNEVEZÉS nem minősíthető új táblanévnek sémanévvel
- [SPARK-37980] [SC-127668][SQL] Ha lehetséges, a tesztekben _metadata keresztül row_index elérése
- [SPARK-42655] [SC-127591][SQL] Helytelen, nem egyértelmű oszlophivatkozási hiba
- [SPARK-43009] [SC-127596][SQL] Állandókkal
Any
paraméterezvesql()
- [SPARK-43026] [SC-127590][SQL] Az AQE alkalmazása nem exchange-alapú táblagyorsítótárral
- [SPARK-42963] [SC-127576][SQL] A SparkSessionExtensions kiterjesztése a szabályok AQE lekérdezési szakasz-optimalizálóba való injektálásához
- [SPARK-42918] [SC-127357] Metaadat-attribútumok kezelésének általánosítása a FileSourceStrategyben
- [SPARK-42806] [SC-127452][SPARK-42811][CONNECT] Támogatás hozzáadása
Catalog
- [SPARK-42997] [SC-127535][SQL] A TableOutputResolvernek helyes oszlopútvonalakat kell használnia a tömbök és térképek hibaüzeneteiben
- [SPARK-43006] [SC-127486][PYSPARK] Elírás javítása a StorageLevel eq() alkalmazásban
- [SPARK-43005] [SC-127485][PYSPARK] Elírás javítása a pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][CORE] Elírás javítása a ResourceRequest.equals() alkalmazásban
- [SPARK-42907] [SC-126984][CONNECT][PYTHON] Avro-függvények implementálása
- [SPARK-42979] [SC-127272][SQL] Konstruktorok definiálása kulcsszavakként
- [SPARK-42946] [SC-127252][SQL] Változók helyettesítése által beágyazott bizalmas adatok újrakontaktálása
- [SPARK-42952] [SC-127260][SQL] Az elemzőszabály PreprocessTableCreation és DataSourceAnalysis paraméterének egyszerűsítése
- [SPARK-42683] [LC-75] Ütköző metaadatoszlopok automatikus átnevezése
- [SPARK-42853] [SC-126101][Nyomon követés] Ütközések javítása
- [SPARK-42929] [SC-126748][CONNECT] a mapInPandas/ mapInArrow támogatása "is_barrier"
- [SPARK-42968] [SC-127271][SS] A véglegesítési koordinátor kihagyásának lehetősége a StreamingWrite API részeként DSv2-forrásokhoz/fogadókhoz
- [SPARK-42954] [SC-127261][PYTHON][CONNECT] Hozzáadás
YearMonthIntervalType
a PySparkhoz és a Spark Connect Python-ügyfélhez - [SPARK-41359] [SC-127256][SQL] DataType helyett használata
PhysicalDataType
a UnsafeRow-ban - [SPARK-42873] [SC-127262][SQL] Spark SQL-típusok definiálása kulcsszavakként
- [SPARK-42808] [SC-126302][CORE] Kerülje az elérhetőprocesszorok minden alkalommal való beszerzését
MapOutputTrackerMaster#getStatistics
- [SPARK-42937] [SC-126880][SQL]
PlanSubqueries
igaz értékre kell állítaniInSubqueryExec#shouldBroadcast
- [SPARK-42896] [SC-126729][SQL][PYTHON] Támogatási akadály mód végrehajtásának végrehajtása
mapInPandas
/mapInArrow
- [SPARK-42874] [SC-126442][SQL] Új golden file test framework engedélyezése az összes bemeneti fájl elemzéséhez
- [SPARK-42922] [SC-126850][SQL] Váltás véletlenszerűről SecureRandom-ra
- [SPARK-42753] [SC-126369] A ReusedExchange nem létező csomópontokra hivatkozik
- [SPARK-40822] [SC-126274][SQL] Stabil származtatott oszlop aliasok
- [SPARK-42908] [SC-126856][PYTHON] RuntimeError létrehozása, ha SparkContext szükséges, de nincs inicializálva
- [SPARK-42779] [SC-126042][SQL] A V2 írásának engedélyezése a tanácsadási shuffle partíció méretének jelzéséhez
- [SPARK-42914] [SC-126727][PYTHON] Újra felhasználható
transformUnregisteredFunction
a következőhözDistributedSequenceID
: . - [SPARK-42878] [SC-126882][CONNECT] A DataFrameReader tábla API-ja is elfogadhat beállításokat
- [SPARK-42927] [SC-126883][CORE] A következő hozzáférési hatókörének
o.a.spark.util.Iterators#size
módosítása:private[util]
- [SPARK-42943] [SC-126879][SQL] A stringType szöveg helyett a LONGTEXT használata a tényleges hosszhoz
- [SPARK-37677] [SC-126855][CORE] A unzip megtarthatja a fájlengedélyeket
- [SPARK-42891] [13.x][SC-126458][CONNECT][PYTHON] A CoGrouped Map API implementálása
- [SPARK-41876] [SC-126849][CONNECT][PYTHON] DataFrame.toLocalIterator implementálása
- [SPARK-42930] [SC-126761][CORE][SQL] A kapcsolódó implementációk hozzáférési hatókörének
ProtobufSerDe
módosítása a következőre:private[protobuf]
- [SPARK-42819] [SC-125879][SS] Támogatás hozzáadása a streameléshez használt RocksDB max_write_buffer_number és write_buffer_size beállításához
- [SPARK-42924] [SC-126737][SQL][CONNECT][PYTHON] A paraméteres SQL args megjegyzésének tisztázása
- [SPARK-42748] [SC-126455][CONNECT] Kiszolgálóoldali összetevő-kezelés
- [SPARK-42816] [SC-126365][CONNECT] Legfeljebb 128 MB-os maximális üzenetméret támogatása
- [SPARK-42850] [SC-126109][SQL] Ismétlődő szabály egyesítőszűrőinek eltávolítása az Optimizerben
- [SPARK-42662] [SC-126355][CONNECT][PS] Proto-üzenet hozzáadása pandas API-hoz a Spark alapértelmezett indexén
- [SPARK-42720] [SC-126136][PS][SQL] A terv helyett az elosztott sorozatú alapértelmezett index kifejezését használja
- [SPARK-42790] [SC-126174][SQL] A JDBC docker-tesztek jobb teszteléséhez a kizárt metódus absztrakciója.
- [SPARK-42900] [SC-126473][CONNECT][PYTHON] A createDataFrame javítása a következtetés és az oszlopnevek tiszteletben tartásához
- [SPARK-42917] [SC-126657][SQL] Helyes getUpdateColumnNullabilityQuery a DerbyDialecthez
- [SPARK-42684] [SC-125157]Az [SQL] v2 katalógus alapértelmezés szerint nem engedélyezi az oszlop alapértelmezett értékét
- [SPARK-42861] [SC-126635][SQL] A védett[sql] helyett használjon privát[sql] függvényt az API-dokumentum generálásának elkerülése érdekében
- [SPARK-42920] [SC-126728][CONNECT][PYTHON] UDF-tesztek engedélyezése UDT-vel
- [SPARK-42791] [SC-126617][SQL] Új arany fájltesztelési keretrendszer létrehozása elemzéshez
- [SPARK-42911] [SC-126652][PYTHON] Alapszintű kivételek bevezetése
- [SPARK-42904] [SC-126634][SQL] A JDBC-katalógus char/varchar támogatása
- [SPARK-42901] [SC-126459][CONNECT][PYTHON] Lépés
StorageLevel
egy külön fájlba a lehetséges lehetőségek elkerülése érdekébenfile recursively imports
- [SPARK-42894] [SC-126451][CONNECT] A Spark connect jvm-ügyfél támogatása
cache
/persist
/unpersist
/storageLevel
- [SPARK-42792] [SC-125852][SS] Az állapotalapú streamelési operátorokban használt RocksDB WRITE_FLUSH_BYTES támogatása
- [SPARK-41233] [SC-126441][CONNECT][PYTHON] Array_prepend hozzáadása a Spark Connect Python-ügyfélhez
- [SPARK-42681] [SC-125149][SQL] Az ALTER TABLE ADD|REPLACE oszlopleíró
- [SPARK-42889] [SC-126367][CONNECT][PYTHON] Gyorsítótár, megőrzése, feloldása és storageLevel implementálása
- [SPARK-42824] [SC-125985][CONNECT][PYTHON] Egyértelmű hibaüzenet küldése a nem támogatott JVM-attribútumokhoz
- [SPARK-42340] [SC-126131][CONNECT][PYTHON] Csoportosított térkép API implementálása
- [SPARK-42892] [SC-126454][SQL] SameType és releváns metódusok áthelyezése a DataType-ból
- [SPARK-42827] [SC-126126][CONNECT] A Scala Connect-ügyfél támogatása
functions#array_prepend
- [SPARK-42823] [SC-125987][SQL]
spark-sql
a shell támogatja a többrészes névtereket az inicializáláshoz - [SPARK-42817] [SC-125960][CORE] A shuffle szolgáltatás nevének naplózása egyszer az ApplicationMasterben
- [SPARK-42786] [SC-126438][Csatlakozás] Beírt kijelölés
- [SPARK-42800] [SC-125868][CONNECT][PYTHON][ML] Az ML függvény implementálása
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][SQL] Codegen-támogatás a HiveSimpleUDF-hez
- [SPARK-41233] [SC-126110][SQL][PYTHON] Függvény hozzáadása
array_prepend
- [SPARK-42864] [SC-126268][ML][3.4] Privátsá tétele
IsotonicRegression.PointsAccumulator
- [SPARK-42876] [SC-126281][SQL] A DataType fizikaiadattípusának privátnak kell lennie[sql]
- [SPARK-42101] [SC-125437][SQL] Az AQE támogatásának létrehozása az InMemoryTableScanExec szolgáltatásban
- [SPARK-41290] [SC-124030][SQL] Az ALWAYS AS generált kifejezések támogatása a táblakivonatok létrehozása/cseréje oszlopaihoz
- [SPARK-42870] [SC-126220][CONNECT] Ugrás
toCatalystValue
ide:connect-common
- [SPARK-42247] [SC-126107][CONNECT][PYTHON] A UserDefinedFunction javítása returnType értékre
- [SPARK-42875] [SC-126258][CONNECT][PYTHON] A toPandas javítása az időzónák és a térképtípusok megfelelő kezeléséhez
- [SPARK-42757] [SC-125626][CONNECT] TextFile implementálása a DataFrameReaderhez
- [SPARK-42803] [SC-126081][CORE][SQL][ML] GetParameterCount függvény használata getParameterTypes.length helyett
- [SPARK-42833] [SC-126043][SQL] Újrabontás
applyExtensions
a következőben:SparkSession
- [SPARK-41765] Visszaállítás "[SC-123550][SQL] V1 írási metrikák lekérése...
- [SPARK-42848] [SC-126105][CONNECT][PYTHON] DataFrame.registerTempTable implementálása
- [SPARK-42020] [SC-126103][CONNECT][PYTHON] UserDefinedType támogatása a Spark Connectben
- [SPARK-42818] [SC-125861][CONNECT][PYTHON] DataFrameReader/Writer.jdbc implementálása
- [SPARK-42812] [SC-125867][CONNECT] Client_type hozzáadása az AddArtifactsRequest protobuf üzenethez
- [SPARK-42772] [SC-125860][SQL] JDBC-beállítások alapértelmezett értékének módosítása a leküldés igaz értékére
- [SPARK-42771] [SC-125855][SQL] HiveGenericUDF újrabontása
- [SPARK-25050] [SC-123839][SQL] Avro: összetett szakszervezetek írása
- [SPARK-42765] [SC-125850][CONNECT][PYTHON] Importálás
pandas_udf
engedélyezésepyspark.sql.connect.functions
- [SPARK-42719] [SC-125225][CORE]
MapOutputTracker#getMapLocation
tiszteletben kell tartanispark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][SQL] A drop partitions teljesítményének javítása
- [SPARK-42689] [SC-125195][CORE][SHUFFLE] A ShuffleDriverComponent deklarálhatja, hogy az shuffle data megbízhatóan van-e tárolva
- [SPARK-42726] [SC-125279][CONNECT][PYTHON] Megvalósít
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][SQL] V1-alapú írási metrikák lekérése a WriteFilesba
- [SPARK-41171] [SC-124191][SQL] Az ablakkorlát következtetése és leküldése az ablakon keresztül, ha a partitionSpec üres
- [SPARK-42686] [SC-125292][CORE] Hibakeresési üzenetek formázásának elhalasztása a TaskMemoryManagerben
- [SPARK-42756] [SC-125443][CONNECT][PYTHON] Segédfüggvény a proto literál értékké alakításához a Python-ügyfélben
- [SPARK-42793] [SC-125627][CONNECT]
connect
modulhoz szükségesbuild_profile_flags
- [SPARK-42701] [SC-125192][SQL] A
try_aes_decrypt()
függvény hozzáadása - [SPARK-42679] [SC-125438][CONNECT][PYTHON] createDataFrame nem működik nem null értékű sémával
- [SPARK-42733] [SC-125542][CONNECT][Nyomon követés] Írás elérési út vagy táblázat nélkül
- [SPARK-42777] [SC-125525][SQL] A TimestampNTZ-katalógusstatisztikák statisztikáinak statisztikáinak statisztikává alakításának támogatása
- [SPARK-42770] [SC-125558][CONNECT] Hozzáadás
truncatedTo(ChronoUnit.MICROS)
aSQLImplicitsTestSuite
Java 17 napi teszt GA-feladatátadásához - [SPARK-42752] [SC-125550][PYSPARK][SQL] PySpark-kivételek nyomtathatóvá tétele az inicializálás során
- [SPARK-42732] [SC-125544][PYSPARK][CONNECT] Spark Connect-munkamenet getActiveSession metódusának támogatása
- [SPARK-42755] [SC-125442][CONNECT] A konstansértékek konvertálása
connect-common
- [SPARK-42747] [SC-125399][ML] A LoR és az AFT helytelen belső állapotának javítása
- [SPARK-42740] [SC-125439][SQL] Kijavítottuk azt a hibát, amely miatt a leküldéses eltolás vagy a lapozás érvénytelen egy beépített dialektus esetében
- [SPARK-42745] [SC-125332][SQL] Továbbfejlesztett AliasAwareOutputExpression a DSv2-vel működik
- [SPARK-42743] [SC-125330][SQL] A TimestampNTZ-oszlopok elemzésének támogatása
- [SPARK-42721] [SC-125371][CONNECT] RPC-naplózási elfogó
- [SPARK-42691] [SC-125397][CONNECT][PYTHON] Dataset.szemanticHash implementálása
- [SPARK-42688] [SC-124922][CONNECT] Connect proto request client_id átnevezése session_id
- [SPARK-42310] [SC-122792][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][CORE] Utils.bytesToString rutinok optimalizálása
- [SPARK-42725] [SC-125296][CONNECT][PYTHON] A LiteralExpression-támogatás tömbparamjainak létrehozása
- [SPARK-42702] [SC-125293][SPARK-42623][SQL] Paraméteres lekérdezés támogatása az alkérésben és a CTE-ben
- [SPARK-42697] [SC-125189][WEBUI] Az /api/v1/applications javítása az időtartam mező 0 helyett teljes üzemidejének visszaadásához
- [SPARK-42733] [SC-125278][CONNECT][PYTHON] A DataFrameWriter.save javítása elérési útparaméter nélküli működéshez
- [SPARK-42376] [SC-124928][SS] Vízjel propagálásának bevezetése az operátorok között
- [SPARK-42710] [SC-125205][CONNECT][PYTHON] FrameMap proto átnevezése MapPartitions-ra
- [SPARK-37099] [SC-123542][SQL] A Rangsoralapú szűrő ablakának csoportkorlátjának bevezetése a top-k számítás optimalizálása érdekében
- [SPARK-42630] [SC-125207][CONNECT][PYTHON] A NemparsedDataType és a DDL-sztring késleltetési elemzése, amíg a SparkConnectClient el nem érhető
- [SPARK-42690] [SC-125193][CONNECT] CSV/JSON-elemzési függvények implementálása Scala-ügyfélhez
- [SPARK-42709] [SC-125172][PYTHON] A rendelkezésre állás feltételezésének
__file__
eltávolítása - [SPARK-42318] [SC-122648][SPARK-42319][SQL] Név hozzárendelése LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][SQL] JSON "timestamp_ltz" adattípus támogatása TimestampType néven
- [SPARK-42722] [SC-125175][CONNECT][PYTHON] A Python Connect def schema() nem gyorsítótárazza a sémát
- [SPARK-42643] [SC-125152][CONNECT][PYTHON] Java (összesítő) felhasználó által definiált függvények regisztrálása
- [SPARK-42656] [SC-125177][CONNECT][Nyomon követés] A spark-connect szkript javítása
- [SPARK-41516] [SC-123899] [SQL] Tábla létrehozásához használt lekérdezés felülbírálása a jdbc-dialektusok számára
- [SPARK-41725] [SC-124396][CONNECT] A DF.sql() lelkes végrehajtása
- [SPARK-42687] [SC-124896][SS] Jobb hibaüzenet a streamelés nem támogatott
pivot
műveletéhez - [SPARK-42676] [SC-124809][SS] Ideiglenes ellenőrzőpontok írása a streamelési lekérdezésekhez a helyi fájlrendszerbe akkor is, ha az alapértelmezett FS másként van beállítva
- [SPARK-42303] [SC-122644][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][SQL] Győződjön meg arról, hogy az "intervallum" után legalább egy időegység
- [SPARK-42649] [SC-124576][CORE] Távolítsa el a szabványos Apache-licenc fejlécét a külső forrásfájlok tetejéről
- [SPARK-42611] [SC-124395][SQL] Belső mezők karakter-/varcharhossz-ellenőrzéseinek beszúrása a felbontás során
- [SPARK-42419] [SC-124019][CONNECT][PYTHON] Migrálás hiba keretrendszerbe a Spark Connect Column API-hoz.
- [SPARK-42637] [SC-124522][CONNECT] SparkSession.stop() hozzáadása
- [SPARK-42647] [SC-124647][PYTHON] Elavult és eltávolított numpy-típusok aliasának módosítása
- [SPARK-42616] [SC-124389][SQL] A SparkSQLCLIDriver csak az elindított hive sessionState bezárásával zárható be
- [SPARK-42593] [SC-124405][PS] Elavult > távolítsa el a pandas 2.0-ban eltávolítandó API-kat.
- [SPARK-41870] [SC-124402][CONNECT][PYTHON] A createDataFrame javítása duplikált oszlopnevek kezeléséhez
- [SPARK-42569] [SC-124379][CONNECT] Kivételek kizárása a nem támogatott munkamenet API-hoz
- [SPARK-42631] [SC-124526][CONNECT] Egyéni bővítmények támogatása a Scala-ügyfélben
- [SPARK-41868] [SC-124387][CONNECT][PYTHON] CreateDataFrame javítása az időtartamok támogatásához
- [SPARK-42572] [SC-124171][SQL][SS] A StateStoreProvider.validateStateRowFormat viselkedésének javítása
Karbantartási frissítések
Lásd a Databricks Runtime 13.1 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | fekete | 22.6.0 | fehérítő | 4.1.0 |
villogó | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
minősítés | 2022.9.14 | cffi | 1.15.1 | karakterkészlet | 4.0.0 |
charset-normalizer | 2.0.4 | kattintás | 8.0.4 | kriptográfia | 37.0.1 |
biciklista | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
hibakeresés | 1.5.1 | lakberendező | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0,12 | belépési pontok | 0,4 |
Végrehajtó | 1.2.0 | aspektusok áttekintése | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | betűtípusok | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgetek | 1.0.0 | kulcstartó | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
jegyzetfüzet | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
csomagolás | 21,3 | pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | Patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Párna | 9.2.0 |
mag | 22.2.2 | platformdirs | 2.5.2 | ábrázolás | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | kérelmek | 2.28.1 | kötél | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
tengeri | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | Hat | 1.16.0 | levessieve | 2.3.1 |
ssh-import-id | 5,11 | veremadatok | 0.6.2 | statsmodels | 0.13.2 |
Kitartás | 8.1.0 | terminado | 0.13.1 | testpath | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádó | 6.1 | árulók | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | kerék | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Telepített R-kódtárak
Az R-kódtárak a Microsoft CRAN 2023.02.10-i pillanatképéből vannak telepítve.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 10.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
backports | 1.4.1 | alap | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
indítás | 1.3-28 | főz | 1.0-8 | Brio | 1.1.3 |
seprű | 1.0.3 | bslib | 0.4.2 | gyorsítótár | 1.0.6 |
hívó | 3.7.3 | kalap | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | osztály | 7.3-21 | Cli | 3.6.0 |
clipr | 0.8.0 | óra | 0.6.1 | fürt | 2.1.4 |
kódtoolok | 0.2-19 | színtér | 2.1-0 | commonmark | 1.8.1 |
fordítóprogram | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
zsírkréta | 1.5.2 | hitelesítő adatok | 1.3.2 | csavarodik | 5.0.0 |
data.table | 1.14.6 | adatkészletek | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | emészt | 0.6.31 | levilágított | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
három pont | 0.3.2 | evaluate | 0.20 | fani | 1.0.4 |
farver | 2.1.1 | gyorstérkép | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | külföldi | 0.8-82 |
kovácsol | 0.2.0 | Fs | 1.6.1 | jövő | 1.31.0 |
future.apply | 1.10.0 | gargarizál | 1.3.0 | Generikus | 0.1.3 |
Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globális | 0.16.2 |
ragasztó | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.1 | grafika | 4.2.2 | grDevices | 4.2.2 |
rács | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | kikötő | 2.5.1 |
highr | 0.10 | Hms | 1.1.2 | htmltoolok | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
Azonosítók | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
izoband | 0.2.7 | iterátorok | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
címkézés | 0.4.2 | később | 1.3.0 | rács | 0.20-45 |
láva | 1.7.1 | életciklus | 1.0.3 | figyelő | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1,5 |
TÖMEG | 7.3-58.2 | Mátrix | 1.5-1 | memoise | 2.0.1 |
metódusok | 4.2.2 | mgcv | 1.8-41 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
párhuzamosan | 1.34.0 | pillér | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | rétegelt | 1.8.8 | dicséret | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | haladás | 1.2.2 |
progressr | 0.13.0 | Ígér | 1.2.0.1 | Proto | 1.0.0 |
helyettes | 0.4-27 | Ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
olvasó | 2.1.3 | readxl | 1.4.2 | receptek | 1.0.4 |
Visszavágót | 1.0.1 | visszavágó2 | 2.1.2 | Távirányító | 2.4.2 |
reprex | 2.0.2 | újraformázás2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.5 | mérleg | 1.2.1 |
választó | 0.4-2 | sessioninfo | 1.2.2 | alak | 1.4.6 |
Fényes | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | térbeli | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | NÉGYZET | 2021.1 | statisztika | 4.2.2 |
statisztikák4 | 4.2.2 | stringi | 1.7.12 | sztring | 1.5.0 |
túlélés | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | szövegformázás | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | eszközök | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
eszközök | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | Waldo | 0.4.0 |
bajusz | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | fütyülés | 2.2.2 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natívok |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natívok |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natívok |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natívok |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | Csellengő | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrikamag | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-zokni | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pác | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | nyílformátum | 11.0.0 |
org.apache.arrow | nyíl-memóriamag | 11.0.0 |
org.apache.arrow | nyíl-memória-netty | 11.0.0 |
org.apache.arrow | nyíl-vektor | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | borostyán | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | célközönség-széljegyzetek | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | móló-folytatás | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | móló plusz | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | Alátéteket | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-kompatibilis | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | három-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |