Megosztás a következőn keresztül:


Databricks Runtime 13.1 (EoS)

Feljegyzés

A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.

Az alábbi kibocsátási megjegyzések az Apache Spark 3.4.0 által működtetett Databricks Runtime 13.1-ről nyújtanak információkat.

A Databricks 2023 májusában adta ki ezt a verziót.

Új funkciók és fejlesztések

A JDK 17 fürttámogatása (nyilvános előzetes verzió)

A Databricks mostantól fürttámogatást biztosít a Java Development Kit (JDK) 17-hez. Lásd: Databricks SDK for Java.

Adatok hozzáadása, módosítása vagy törlése streamelési táblákban

Mostantól DML-utasítások használatával módosíthatja a Unity Catalogban a Delta Live Tables-folyamatok által közzétett streamelési táblákat. Lásd: Adatok hozzáadása, módosítása vagy törlése egy streamelési táblában , valamint adatok hozzáadása, módosítása vagy törlése egy célstreamelési táblában. DML-utasítások használatával is módosíthatja a Databricks SQL-ben létrehozott streamelési táblákat.

Kafka olvasása SQL-lel

Most már használhatja az read_kafka SQL-függvényt a Kafka-adatok olvasásához. Az SQL-sel való streamelés csak a Delta Live Tablesben vagy a Databricks SQL-ben futó streamtáblákban támogatott. Lásd read_kafka táblaértékű függvényt.

Új beépített SQL-függvények

A következő függvények lettek hozzáadva:

Unity Catalog-támogatás fürt hatókörű Python-kódtárakhoz

A Unity Catalog bizonyos korlátozásokkal rendelkezik a könyvtárhasználatra vonatkozóan. A Databricks Runtime 13.1-ben és újabb verziókban a fürt hatókörű Python-kódtárak támogatottak, beleértve a munkaterületfájlokként feltöltött Python-kerekes fájlokat is. A DBFS-fájlpathokkal hivatkozott kódtárak nem támogatottak, akár a DBFS-gyökérben, akár a DBFS-hez csatlakoztatott külső helyen. A nem Python-kódtárak nem támogatottak. Lásd: Fürtkódtárak.

A Databricks Runtime 13.0-s és újabb verzióban a fürt hatókörű kódtárai nem támogatottak olyan fürtökön, amelyek megosztott hozzáférési módot használnak egy Unity Katalógus-kompatibilis munkaterületen.

Bővített alapértelmezett engedélyezés optimalizált írásokhoz a Unity Katalógusban

A Unity Katalógusban regisztrált Delta-táblák alapértelmezett optimalizált írási támogatása kibővült CTAS a particionált táblákra vonatkozó utasításokra és INSERT műveletekre. Ez a viselkedés az SQL-raktárak alapértelmezett értékéhez igazodik. Lásd: Optimalizált írások a Delta Lake-hez az Azure Databricksben.

A strukturált streamelési számítási feladatok állapotalapú operátorainak speciális támogatása

Mostantól több állapotalapú operátort is összekapcsolhat, ami azt jelenti, hogy egy művelet kimenetét, például egy ablakos összesítést egy másik állapotalapú művelethez, például egy illesztéshez táplálhatja. Lásd : Mi az állapotalapú streamelés?.

A Unity Catalog delta klónja nyilvános előzetes verzióban érhető el

Most már használhatja a sekély klónt új, felügyelt Unity Catalog-táblák létrehozásához a Unity Catalog meglévő felügyelt tábláiból. Lásd: Shallow clone for Unity Catalog tables.

Pub/Altámogatás strukturált streameléshez

Mostantól egy beépített összekötővel feliratkozhat a Google Pub/Sub szolgáltatásra strukturált streameléssel. Lásd: Feliratkozás a Google Pub/Sub szolgáltatásra.

Duplikált elemek elvetése a vízjeleken belül a strukturált streamelésben

Mostantól dropDuplicatesWithinWatermark egy megadott vízjel küszöbértékével kombinálva deduplikálhatja a rekordokat a strukturált streamelésben. Lásd: Duplikált elemek elvetése a vízjelen belül.

Bővített támogatás a Delta-átalakításokhoz Iceberg-táblákból csonkolt partícióoszlopokkal

Mostantól használhat CLONE CONVERT TO DELTA olyan Iceberg-táblákat, amelyek csonkolt típusú intoszlopokon definiált partíciókat tartalmaznak, longés string. A csonkolt típusú decimal oszlopok nem támogatottak.

Sémamódosítások streamelése oszlopleképezéssel a Delta Lake-ben

Most már megadhat egy sémakövetési helyet a Delta-táblákból való streamelés engedélyezéséhez, ha engedélyezve van az oszlopleképezés. Lásd: Streamelés oszlopleképezéssel és sémamódosításokkal.

A START VERZIÓ eltávolítása

START VERSION mostantól elavult a következőre ALTER SHARE: .

Új H3-kifejezések érhetők el a Pythonban

A h3_coverash3 kifejezések és h3_coverash3string kifejezések a Pythonban érhetők el.

Hibajavítások

A parquet failOnUnknownFields már nem ejti el csendben az adatokat a típuseltérésről

Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel olvastak a failOnUnknownFields failOnNewColumns sémafejlődési módban, a különböző adattípusokkal rendelkező oszlopok most már nem használhatók, és a használatát rescuedDataColumnjavasolják. Az Automatikus betöltő mostantól helyesen olvassa be az egész, a rövid vagy a bájttípust, ha az egyik ilyen adattípus meg van adva. A Parquet-fájl a másik két típus egyikét javasolja.

Kompatibilitástörő változások

Frissítse az sqlite-jdbc verziót a 3.42.0.0-ra a CVE-2023-32697 címre

Frissítse az sqlite-jdbc verziót a 3.8.11.2-es verzióról a 3.42.0.0-s verzióra. A 3.42.0.0-s verzió API-k nem teljes mértékben kompatibilisek a 3.8.11.2-es verzióval. Ha sqlite-jdbc-t használ a kódban, a részletekért tekintse meg az sqlite-jdbc kompatibilitási jelentését. Ha a 13.1-es verzióra migrál, és sqlite-t használ, erősítse meg a metódusokat, és adja vissza a típust a 3.42.0.0-s verzióban.

Könyvtárfrissítések

  • Frissített Python-kódtárak:
    • aspektusok áttekintése 1.0.2-től 1.0.3-ra
    • filelock 3.10.7-től 3.12.0-ra
    • pyarrow 7.0.0 és 8.0.0 között
    • 8.0.1 és 8.1.0 közötti kitartás
  • Frissített R-kódtárak:
  • Frissített Java-kódtárak:
    • com.github.ben-manes.koffein.koffein 2.3.4 és 2.9.3 között
    • io.delta.delta-sharing-spark_2.12 0.6.8–0.6.4
    • net.snowflake.snowflake-jdbc 3.13.29-től 3.13.22-ig
    • org.checkerframework.checker-qual 3.5.0-tól 3.19.0-ra
    • org.scalactic.scalactic_2.12 3.0.8 és 3.2.15 között
    • org.scalatest.scalatest_2.12 3.0.8 és 3.2.15 között
    • org.xerial.sqlite-jdbc 3.8.11.2-től 3.42.0.0-ig

Apache Spark

A Databricks Runtime 13.1 tartalmazza az Apache Spark 3.4.0-t. Ez a kiadás tartalmazza a Databricks Runtime 13.0 (EoS) összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:

  • [SPARK-42719] [DBRRM-199][SC-131578] "[SC-125225] 'MapOutputTracker#getMap...
  • [SPARK-39696] [DBRRM-166][SC-130056][CORE] Visszaállítás [SC-127830]/
  • [SPARK-43331] [SC-130064][CONNECT] Spark Connect SparkSession.interruptAll hozzáadása
  • [SPARK-43332] [SC-130051][CONNECT][PYTHON] A ChannelBuilder kiterjesztése a SparkConnectClienthez
  • [SPARK-43323] [SC-129966][SQL][PYTHON] A DataFrame.toPandas javítása a kivételek megfelelő kezeléséhez engedélyezett nyíllal
  • [SPARK-42940] [SC-129896][SS][CONNECT] A streamelési lekérdezések munkamenet-kezelésének javítása
  • [SPARK-43032] [SC-125756] [CONNECT][SS] Streamelési lekérdezéskezelő hozzáadása
  • [SPARK-16484] [SC-129975][SQL] A Datasketches HllSketch támogatásának hozzáadása
  • [SPARK-43260] [SC-129281][PYTHON] A Spark SQL Pandas nyíltípus hibáinak migrálása hibaosztályba.
  • [SPARK-41766] [SC-129964][CORE] A végrehajtó regisztrációja előtt küldött leszerelési kérelem kezelése
  • [SPARK-43307] [SC-129971][PYTHON] PandasUDF-értékhibák migrálása hibaosztályba
  • [SPARK-43206] [SC-129903] [SS] [CONNECT] StreamingQuery exception() include stack trace
  • [SPARK-43311] [SC-129905][SS] A RocksDB állapottároló-szolgáltató memóriakezelési fejlesztéseinek hozzáadása
  • [SPARK-43237] [SC-129898][CORE] Null kivétel üzenetének kezelése az eseménynaplóban
  • [SPARK-43320] [SC-129899][SQL][HIVE] Hive 2.3.9 API közvetlen meghívása
  • [SPARK-43270] [SC-129897][PYTHON] Implementálás __dir__() oszlopok pyspark.sql.dataframe.DataFrame belefoglalásához
  • [SPARK-43183] Visszaállítás "[SC-128938][SS] Új visszahívás bevezetése "...
  • [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675][SQL] Cserélje le a _LEGACY_ERROR_TEMP_2022 hibaosztályt egy belső hibára
  • [SPARK-43198] [SC-129470][CONNECT] "Nem sikerült inicializálni az osztály ammonite..." hiba a szűrő használatakor
  • [SPARK-43165] [SC-129777][SQL] CanWrite áthelyezése a DataTypeUtils szolgáltatásba
  • [SPARK-43298] [SC-129729][PYTHON][ML] a skaláris bemenettel rendelkező predict_batch_udf egy kötegmérettel meghiúsul
  • [SPARK-43298] [SC-129700]A(z) "[PYTHON][ML] predict_batch_udf skaláris bemenettel való visszaállítása meghiúsul egy kötegmérettel"
  • [SPARK-43052] [SC-129663][CORE] Stacktrace kezelése null fájlnévvel az eseménynaplóban
  • [SPARK-43183] [SC-128938][SS] Az "onQueryIdle" új visszahívásának bevezetése a StreamingQueryListenerbe
  • [SPARK-43209] [SC-129190][CONNECT][PYTHON] Kifejezéshibák migrálása hibaosztályba
  • [SPARK-42151] [SC-128754][SQL] UPDATE-hozzárendelések igazítása táblaattribútumokhoz
  • [SPARK-43134] [SC-129468] [CONNECT] [SS] JVM-ügyfél StreamingQuery exception() API
  • [SPARK-43298] [SC-129699][PYTHON][ML] a skaláris bemenettel rendelkező predict_batch_udf egy kötegmérettel meghiúsul
  • [SPARK-43248] [SC-129660][SQL] Az elérési út szükségtelen szerializálása/deszerializálása párhuzamos partícióstatisztikákon
  • [SPARK-43274] [SC-129464][SPARK-43275][PYTHON][CONNECT] Bevezet PySparkNotImplementedError
  • [SPARK-43146] [SC-128804][CONNECT][PYTHON] A repr és a repr_html lelkes kiértékelése
  • [SPARK-42953] [SC-129469][Csatlakozás][Nyomon követés] Maven-teszt build javítása Scala-ügyfél UDF-tesztjeihez
  • [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
  • [SPARK-43136] [SC-129358][CONNECT] GroupByKey + mapGroup + coGroup függvények hozzáadása
  • [SPARK-43156] [SC-129672][SC-128532][SQL] A korrelált skaláris subquery hiba kijavítása COUNT(*) is null
  • [SPARK-43046] [SC-129110] [SS] [Csatlakozás] Implementált Python API dropDuplicatesWithinWatermark for Spark Connect
  • [SPARK-43199] [SC-129467][SQL] InlineCTE idempotenssé tétele
  • [SPARK-43293] [SC-129657][SQL] __qualified_access_only a normál oszlopokban figyelmen kívül kell hagyni
  • [SPARK-43276] [SC-129461][CONNECT][PYTHON] Spark Connect-ablak hibáinak migrálása hibaosztályba
  • [SPARK-43174] [SC-129109][SQL] SparkSQLCLIDriver-kiegészítés javítása
  • [SPARK-43084] [SC-128654] [SS] ApplyInPandasWithState támogatás hozzáadása spark connecthez
  • [SPARK-43119] [SC-129040][SQL] SQL-kulcsszavak dinamikus lekérésének támogatása A JDBC API és a TVF használatával
  • [SPARK-43082] [SC-129112][CONNECT][PYTHON] Nyíloptimalizált Python UDF-ek a Spark Connectben
  • [SPARK-43085] [SC-128432][SQL] A többrészes táblanevek ALAPÉRTELMEZETT oszlop-hozzárendelésének támogatása
  • [SPARK-43226] [LC-671] A fájlállandó metaadatok kinyerőinek definiálása
  • [SPARK-43210] [SC-129189][CONNECT][PYTHON] Bevezet PySparkAssertionError
  • [SPARK-43214] [SC-129199][SQL] A LocalTableScanExec/CommandResultExec illesztőprogram-oldali metrikáinak közzététele
  • [SPARK-43285] [SC-129347] A ReplE2ESuite konzisztens meghibásodásának javítása a JDK 17-zel
  • [SPARK-43268] [SC-129249][SQL] Megfelelő hibaosztályok használata, ha a kivételek üzenettel vannak létrehozva
  • [SPARK-43142] [SC-129299] Speciális karaktereket tartalmazó attribútumok DSL-kifejezéseinek javítása
  • [SPARK-43129] [SC-128896] Scala core API a Spark Connect streameléshez
  • [SPARK-43233] [SC-129250] [SS] Naplózás hozzáadása a Kafka Batch Readinghez témakörpartícióhoz, eltolástartományhoz és tevékenységazonosítóhoz
  • [SPARK-43249] [SC-129195][CONNECT] Az SQL Command hiányzó statisztikáinak javítása
  • [SPARK-42945] [SC-129188][CONNECT] Támogatási PYSPARK_JVM_STACKTRACE_ENABLED a Spark Connectben
  • [SPARK-43178] [SC-129197][CONNECT][PYTHON] UDF-hibák migrálása a PySpark hibakeretébe
  • [SPARK-43123] [SC-128494][SQL] A belső mező metaadatait nem szabad kiszivárogtatni a katalógusokbe
  • [SPARK-43217] [SC-129205] Megfelelően ismétlődik a beágyazott térképekben/tömbökben a findNestedFieldben
  • [SPARK-43243] [SC-129294][PYTHON][CONNECT] Szint param hozzáadása a PrintSchema for Pythonhoz
  • [SPARK-43230] [SC-129191][CONNECT] Egyszerűsít DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403][SQL] Respect RequiresDistributionAndOrdering in CTAS/RTAS
  • [SPARK-43234] [SC-129192][CONNECT][PYTHON] Migrálás ValueError a Conect DataFrame-ből hibaosztályba
  • [SPARK-43212] [SC-129187][SS][PYTHON] Strukturált streamelési hibák migrálása hibaosztályba
  • [SPARK-43239] [SC-129186][PS] Eltávolítás null_counts az információból()
  • [SPARK-43190] [SC-128930][SQL] A ListQuery.childOutput értéknek konzisztensnek kell lennie a gyermekkimenettel
  • [SPARK-43191] [SC-128924][CORE] A Hadoop CallerContext tükrözési w/ közvetlen hívásának cseréje
  • [SPARK-43193] [SC-129042][SS] A HADOOP-12074 megkerülő megoldásának eltávolítása
  • [SPARK-42657] [SC-128621][CONNECT] Ügyféloldali REPL-osztályfájlok keresése és átvitele a kiszolgálóra összetevőként
  • [SPARK-43098] [SC-77059][SQL] Kijavítottuk a helyességi DARAB hibát, ha a skaláris subquery záradék szerint csoportosítva van
  • [SPARK-43213] [SC-129062][PYTHON] Hozzáadás DataFrame.offset a vanilla PySparkhoz
  • [SPARK-42982] [SC-128400][CONNECT][PYTHON] A createDataFrame javítása az adott séma ddl-jének tiszteletben tartásához
  • [SPARK-43124] [SC-129011][SQL] Dataset.show projects CommandResults helyileg
  • [SPARK-42998] [SC-127422][CONNECT][PYTHON] A DataFrame.collect javítása null szerkezettel
  • [SPARK-41498] [SC-125343]"Metaadatok propagálása az Unión keresztül" visszaállítása
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Await_termination() és exception() API hozzáadása streamlekérdezéshez Pythonban
  • [SPARK-42552] [SC-128824][SQL] Az antlr-elemző kétfázisú elemzési stratégiájának javítása
  • [SPARK-43207] [SC-128937][CONNECT] Segédfüggvények hozzáadása a literális kifejezésből származó érték kinyeréséhez
  • [SPARK-43186] [SC-128841][SQL][HIVE] A FileSinkDesc kerülő megoldásának eltávolítása
  • [SPARK-43107] [SC-128533][SQL] A szórásos illesztés streamoldalán alkalmazott illesztésben lévő szenes gyűjtők
  • [SPARK-43195] [SC-128922][CORE] Szükségtelen szerializálható burkoló eltávolítása a HadoopFSUtilsban
  • [SPARK-43137] [SC-128828][SQL] Javítsa a ArrayInsertet, ha a pozíció összecsukható és pozitív.
  • [SPARK-37829] [SC-128827][SQL] Dataframe.joinWith outer-join függvény null értéket ad vissza a nem egyező sorhoz
  • [SPARK-43042] [SC-128602] [SS] [Csatlakozás] Table() API-támogatás hozzáadása a DataStreamReaderhez
  • [SPARK-43153] [SC-128753][CONNECT] Spark-végrehajtás kihagyása, ha az adatkeret helyi
  • [SPARK-43064] [SC-128496][SQL] A Spark SQL CLI SQL-lapjának csak egyszer kell megjelenítenie az utasítást
  • [SPARK-43126] [SC-128447][SQL] Két Hive UDF-kifejezés megjelölése állapotalapúként
  • [SPARK-43111] [SC-128750][PS][CONNECT][PYTHON] Beágyazott if utasítások egyesítése egyetlen if utasításba
  • [SPARK-43113] [SC-128749][SQL] Streamoldali változók kiértékelése kötött feltétel kódjának létrehozásakor
  • [SPARK-42895] [SC-127258][CONNECT] Leállított Spark-munkamenetek hibaüzeneteinek javítása
  • [SPARK-42884] [SC-126662][CONNECT] Ammonite REPL-integráció hozzáadása
  • [SPARK-43168] [SC-128674][SQL] A PhysicalDataType metódus lekérésének eltávolítása a Datatype osztályból
  • [SPARK-43121] [SC-128455][SQL] Manuális másolás helyett használja BytesWritable.copyBytes a HiveInspectors
  • [SPARK-42916] [SC-128389][SQL] A JDBCTableCatalog megtartja a Char/Varchar meta-t az olvasási oldalon
  • [SPARK-43050] [SC-128550][SQL] Összesítő kifejezések szerkezetének javítása csoportosítási függvények lecserélésével
  • [SPARK-43095] [SC-128549][SQL] Kerülje el, ha a stratégia idempotenciája megszakadt a köteg esetében: Infer Filters
  • [SPARK-43130] [SC-128597][SQL] InternalType áthelyezése a PhysicalDataType fájlba
  • [SPARK-43105] [SC-128456][CONNECT] Bájtok és sztringek rövidítése a proto üzenetben
  • [SPARK-43099] [SC-128596][SQL] Szerkesztőosztálynév getName lekérése getCanonicalName helyett használja az udf függvényregisztrációs szolgáltatásba való regisztrálásakor
  • [SPARK-42994] [SC-128586][ML][CONNECT] A PyTorch-forgalmazó támogatja a helyi módot
  • [SPARK-42859] "[SC-127935][CONNECT][PS] A Pandas API alapszintű támogatása a Spark Connecten"
  • [SPARK-43021] [SC-128472][SQL] CoalesceBucketsInJoin nem működik az AQE használatakor
  • [SPARK-43125] [SC-128477][CONNECT] A Connect Server nem tudja kezelni a kivételt null üzenettel
  • [SPARK-43147] [SC-128594] a flake8 lint javítása helyi ellenőrzéshez
  • [SPARK-43031] [SC-128360] [SS] [Csatlakozás] Egységteszt és doctest engedélyezése streameléshez
  • [SPARK-43039] [LC-67] A fájlforrás _metadata oszlop egyéni mezőinek támogatása.
  • [SPARK-43120] [SC-128407][SS] Támogatás hozzáadása a rögzített blokkok memóriahasználatának nyomon követéséhez a RocksDB állapottárolójában
  • [SPARK-43110] [SC-128381][SQL] Az asIntegral áthelyezése a PhysicalDataType fájlba
  • [SPARK-43118] [SC-128398][SS] A KafkaMicroBatchStreamben található UninterruptibleThread szükségtelen állításának eltávolítása
  • [SPARK-43055] [SC-128331][CONNECT][PYTHON] Duplikált beágyazott mezőnevek támogatása
  • [SPARK-42437] [SC-128339][PYTHON][CONNECT] A PySpark catalog.cacheTable lehetővé teszi a tárolási szint megadását
  • [SPARK-42985] [SC-128332][CONNECT][PYTHON] A createDataFrame javítása az SQL-konfigurációk tiszteletben tartásához
  • [SPARK-39696] [SC-127830][CORE] Adatverseny javítása a TaskMetrics.externalAccums szolgáltatáshoz való hozzáférésben
  • [SPARK-43103] [SC-128335][SQL] Az Integrál áthelyezése a PhysicalDataType-ba
  • [SPARK-42741] [SC-125547][SQL] A bináris összehasonlításban ne bontsa ki a leadott elemeket, ha a literál értéke null
  • [SPARK-43057] [SC-127948][CONNECT][PYTHON] Spark Connect-oszlophibák migrálása hibaosztályba
  • [SPARK-42859] [SC-127935][CONNECT][PS] Alapszintű támogatás a Pandas API-hoz a Spark Connecten
  • [SPARK-43013] [SC-127773][PYTHON] Migrálás ValueError a DataFrame-ből a PySparkValueError.
  • [SPARK-43089] [SC-128051][CONNECT] Hibakeresési sztring ismételt használata a felhasználói felületen
  • [SPARK-43028] [SC-128070][SQL] Hibaosztály hozzáadása SQL_CONF_NOT_FOUND
  • [SPARK-42999] [SC-127842][Csatlakozás] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937][SQL] DropDuplicates teszt hozzáadása a JavaDatasetSuite-ban
  • [SPARK-43075] [SC-127939][CONNECT] Váltson gRPC arra az állapotra grpcio , amikor nincs telepítve.
  • [SPARK-42953] [SC-127809][Csatlakozás] Gépelt szűrő, térkép, síktérkép, mapPartitions
  • [SPARK-42597] [SC-125506][SQL] Dátumtípus és időbélyeg típusának támogatása
  • [SPARK-42931] [SC-127933][SS] DropDuplicatesWithinWatermark bemutatása
  • [SPARK-43073] [SC-127943][CONNECT] Proto-adattípusok állandóinak hozzáadása
  • [SPARK-43077] [SC-128050][SQL] A UNRECOGNIZED_SQL_TYPE hibaüzenetének javítása
  • [SPARK-42951] [SC-128030][SS][Csatlakozás] DataStreamReader API-k
  • [SPARK-43049] [SC-127846][SQL] A CLOB használata VARCHAR(255) helyett StringType for Oracle JDBC-hez
  • [SPARK-43018] [SC-127762][SQL] Az INSERT-parancsok időbélyeg-literálokkal kapcsolatos hibájának javítása
  • [SPARK-42855] [SC-127722][SQL] Futtatókörnyezeti null ellenőrzések használata a TableOutputResolverben
  • [SPARK-43030] [SC-127847][SQL] Kapcsolatok deduplikálása metaadatoszlopokkal
  • [SPARK-42993] [SC-127829][ML][CONNECT] A PyTorch-forgalmazó kompatibilissé tétele a Spark Connecttel
  • [SPARK-43058] [SC-128072][SQL] Numerikus és törtérték áthelyezése PhysicalDataType-ba
  • [SPARK-43056] [SC-127946][SS] A RocksDB állapottároló véglegesítésének csak akkor kell folytatnia a háttérmunkát, ha az szüneteltetve van
  • [SPARK-43059] [SC-127947][CONNECT][PYTHON] TypeError migrálása a DataFrame-ből (Olvasó|Író) hibaosztályba
  • [SPARK-43071] [SC-128018][SQL] A SELECT DEFAULT támogatása ORDER BY, LIMIT, OFFSET for INSERT forrásrelációval
  • [SPARK-43061] [SC-127956][CORE][SQL] A PartitionEvaluator bemutatása AZ SQL-operátor végrehajtásához
  • [SPARK-43067] [SC-127938][SS] Hibaosztály erőforrásfájljának helyének javítása a Kafka-összekötőben
  • [SPARK-43019] [SC-127844][SQL] Rendezés áthelyezése PhysicalDataType-ba
  • [SPARK-43010] [SC-127759][PYTHON] Oszlophibák migrálása hibaosztályba
  • [SPARK-42840] [SC-127782][SQL] Hiba módosítása _LEGACY_ERROR_TEMP_2004 belső hibára
  • [SPARK-43041] [SC-127765][SQL] Kivételek konstruktorainak visszaállítása az összekötő API kompatibilitásához
  • [SPARK-42939] [SC-127761][SS][CONNECT] Alapvető streamelési Python API a Spark Connecthez
  • [SPARK-42844] [SC-127766][SQL] A hibaosztály _LEGACY_ERROR_TEMP_2008 frissítése a következőre: INVALID_URL
  • [SPARK-42316] [SC-127720][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723][CONNECT][PYTHON] Spark Connect DataFrame-hibák migrálása hibaosztályba
  • [SPARK-42983] [SC-127717][CONNECT][PYTHON] A createDataFrame javítása a 0-dim numpy tömb megfelelő kezeléséhez
  • [SPARK-42955] [SC-127476][SQL] A SparkThrowable classifyException és wrap AnalysisException kihagyása
  • [SPARK-42949] [SC-127255][SQL] A NAAJ kódjának egyszerűsítése
  • [SPARK-43011] [SC-127577][SQL] array_insert sikertelennek kell lennie 0 indextel
  • [SPARK-42974] [SC-127487][CORE] Visszaállítás Utils.createTempDir a módszer használatához és a ShutdownHookManager törléshez JavaUtils.createTempDir .
  • [SPARK-42964] [SC-127585][SQL] A PosgresDialect '42P07' azt is jelenti, hogy a tábla már létezik
  • [SPARK-42978] [SC-127351][SQL] Derby&PG: AZ ÁTNEVEZÉS nem minősíthető új táblanévnek sémanévvel
  • [SPARK-37980] [SC-127668][SQL] Ha lehetséges, a tesztekben _metadata keresztül row_index elérése
  • [SPARK-42655] [SC-127591][SQL] Helytelen, nem egyértelmű oszlophivatkozási hiba
  • [SPARK-43009] [SC-127596][SQL] Állandókkal Any paraméterezve sql()
  • [SPARK-43026] [SC-127590][SQL] Az AQE alkalmazása nem exchange-alapú táblagyorsítótárral
  • [SPARK-42963] [SC-127576][SQL] A SparkSessionExtensions kiterjesztése a szabályok AQE lekérdezési szakasz-optimalizálóba való injektálásához
  • [SPARK-42918] [SC-127357] Metaadat-attribútumok kezelésének általánosítása a FileSourceStrategyben
  • [SPARK-42806] [SC-127452][SPARK-42811][CONNECT] Támogatás hozzáadása Catalog
  • [SPARK-42997] [SC-127535][SQL] A TableOutputResolvernek helyes oszlopútvonalakat kell használnia a tömbök és térképek hibaüzeneteiben
  • [SPARK-43006] [SC-127486][PYSPARK] Elírás javítása a StorageLevel eq() alkalmazásban
  • [SPARK-43005] [SC-127485][PYSPARK] Elírás javítása a pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457][CORE] Elírás javítása a ResourceRequest.equals() alkalmazásban
  • [SPARK-42907] [SC-126984][CONNECT][PYTHON] Avro-függvények implementálása
  • [SPARK-42979] [SC-127272][SQL] Konstruktorok definiálása kulcsszavakként
  • [SPARK-42946] [SC-127252][SQL] Változók helyettesítése által beágyazott bizalmas adatok újrakontaktálása
  • [SPARK-42952] [SC-127260][SQL] Az elemzőszabály PreprocessTableCreation és DataSourceAnalysis paraméterének egyszerűsítése
  • [SPARK-42683] [LC-75] Ütköző metaadatoszlopok automatikus átnevezése
  • [SPARK-42853] [SC-126101][Nyomon követés] Ütközések javítása
  • [SPARK-42929] [SC-126748][CONNECT] a mapInPandas/ mapInArrow támogatása "is_barrier"
  • [SPARK-42968] [SC-127271][SS] A véglegesítési koordinátor kihagyásának lehetősége a StreamingWrite API részeként DSv2-forrásokhoz/fogadókhoz
  • [SPARK-42954] [SC-127261][PYTHON][CONNECT] Hozzáadás YearMonthIntervalType a PySparkhoz és a Spark Connect Python-ügyfélhez
  • [SPARK-41359] [SC-127256][SQL] DataType helyett használata PhysicalDataType a UnsafeRow-ban
  • [SPARK-42873] [SC-127262][SQL] Spark SQL-típusok definiálása kulcsszavakként
  • [SPARK-42808] [SC-126302][CORE] Kerülje az elérhetőprocesszorok minden alkalommal való beszerzését MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][SQL] PlanSubqueries igaz értékre kell állítani InSubqueryExec#shouldBroadcast
  • [SPARK-42896] [SC-126729][SQL][PYTHON] Támogatási akadály mód végrehajtásának végrehajtása mapInPandas / mapInArrow
  • [SPARK-42874] [SC-126442][SQL] Új golden file test framework engedélyezése az összes bemeneti fájl elemzéséhez
  • [SPARK-42922] [SC-126850][SQL] Váltás véletlenszerűről SecureRandom-ra
  • [SPARK-42753] [SC-126369] A ReusedExchange nem létező csomópontokra hivatkozik
  • [SPARK-40822] [SC-126274][SQL] Stabil származtatott oszlop aliasok
  • [SPARK-42908] [SC-126856][PYTHON] RuntimeError létrehozása, ha SparkContext szükséges, de nincs inicializálva
  • [SPARK-42779] [SC-126042][SQL] A V2 írásának engedélyezése a tanácsadási shuffle partíció méretének jelzéséhez
  • [SPARK-42914] [SC-126727][PYTHON] Újra felhasználható transformUnregisteredFunction a következőhöz DistributedSequenceID: .
  • [SPARK-42878] [SC-126882][CONNECT] A DataFrameReader tábla API-ja is elfogadhat beállításokat
  • [SPARK-42927] [SC-126883][CORE] A következő hozzáférési hatókörének o.a.spark.util.Iterators#size módosítása: private[util]
  • [SPARK-42943] [SC-126879][SQL] A stringType szöveg helyett a LONGTEXT használata a tényleges hosszhoz
  • [SPARK-37677] [SC-126855][CORE] A unzip megtarthatja a fájlengedélyeket
  • [SPARK-42891] [13.x][SC-126458][CONNECT][PYTHON] A CoGrouped Map API implementálása
  • [SPARK-41876] [SC-126849][CONNECT][PYTHON] DataFrame.toLocalIterator implementálása
  • [SPARK-42930] [SC-126761][CORE][SQL] A kapcsolódó implementációk hozzáférési hatókörének ProtobufSerDe módosítása a következőre: private[protobuf]
  • [SPARK-42819] [SC-125879][SS] Támogatás hozzáadása a streameléshez használt RocksDB max_write_buffer_number és write_buffer_size beállításához
  • [SPARK-42924] [SC-126737][SQL][CONNECT][PYTHON] A paraméteres SQL args megjegyzésének tisztázása
  • [SPARK-42748] [SC-126455][CONNECT] Kiszolgálóoldali összetevő-kezelés
  • [SPARK-42816] [SC-126365][CONNECT] Legfeljebb 128 MB-os maximális üzenetméret támogatása
  • [SPARK-42850] [SC-126109][SQL] Ismétlődő szabály egyesítőszűrőinek eltávolítása az Optimizerben
  • [SPARK-42662] [SC-126355][CONNECT][PS] Proto-üzenet hozzáadása pandas API-hoz a Spark alapértelmezett indexén
  • [SPARK-42720] [SC-126136][PS][SQL] A terv helyett az elosztott sorozatú alapértelmezett index kifejezését használja
  • [SPARK-42790] [SC-126174][SQL] A JDBC docker-tesztek jobb teszteléséhez a kizárt metódus absztrakciója.
  • [SPARK-42900] [SC-126473][CONNECT][PYTHON] A createDataFrame javítása a következtetés és az oszlopnevek tiszteletben tartásához
  • [SPARK-42917] [SC-126657][SQL] Helyes getUpdateColumnNullabilityQuery a DerbyDialecthez
  • [SPARK-42684] [SC-125157]Az [SQL] v2 katalógus alapértelmezés szerint nem engedélyezi az oszlop alapértelmezett értékét
  • [SPARK-42861] [SC-126635][SQL] A védett[sql] helyett használjon privát[sql] függvényt az API-dokumentum generálásának elkerülése érdekében
  • [SPARK-42920] [SC-126728][CONNECT][PYTHON] UDF-tesztek engedélyezése UDT-vel
  • [SPARK-42791] [SC-126617][SQL] Új arany fájltesztelési keretrendszer létrehozása elemzéshez
  • [SPARK-42911] [SC-126652][PYTHON] Alapszintű kivételek bevezetése
  • [SPARK-42904] [SC-126634][SQL] A JDBC-katalógus char/varchar támogatása
  • [SPARK-42901] [SC-126459][CONNECT][PYTHON] Lépés StorageLevel egy külön fájlba a lehetséges lehetőségek elkerülése érdekében file recursively imports
  • [SPARK-42894] [SC-126451][CONNECT] A Spark connect jvm-ügyfél támogatása cache/persist/unpersist/storageLevel
  • [SPARK-42792] [SC-125852][SS] Az állapotalapú streamelési operátorokban használt RocksDB WRITE_FLUSH_BYTES támogatása
  • [SPARK-41233] [SC-126441][CONNECT][PYTHON] Array_prepend hozzáadása a Spark Connect Python-ügyfélhez
  • [SPARK-42681] [SC-125149][SQL] Az ALTER TABLE ADD|REPLACE oszlopleíró
  • [SPARK-42889] [SC-126367][CONNECT][PYTHON] Gyorsítótár, megőrzése, feloldása és storageLevel implementálása
  • [SPARK-42824] [SC-125985][CONNECT][PYTHON] Egyértelmű hibaüzenet küldése a nem támogatott JVM-attribútumokhoz
  • [SPARK-42340] [SC-126131][CONNECT][PYTHON] Csoportosított térkép API implementálása
  • [SPARK-42892] [SC-126454][SQL] SameType és releváns metódusok áthelyezése a DataType-ból
  • [SPARK-42827] [SC-126126][CONNECT] A Scala Connect-ügyfél támogatása functions#array_prepend
  • [SPARK-42823] [SC-125987][SQL] spark-sql a shell támogatja a többrészes névtereket az inicializáláshoz
  • [SPARK-42817] [SC-125960][CORE] A shuffle szolgáltatás nevének naplózása egyszer az ApplicationMasterben
  • [SPARK-42786] [SC-126438][Csatlakozás] Beírt kijelölés
  • [SPARK-42800] [SC-125868][CONNECT][PYTHON][ML] Az ML függvény implementálása {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439][SQL] Codegen-támogatás a HiveSimpleUDF-hez
  • [SPARK-41233] [SC-126110][SQL][PYTHON] Függvény hozzáadása array_prepend
  • [SPARK-42864] [SC-126268][ML][3.4] Privátsá tétele IsotonicRegression.PointsAccumulator
  • [SPARK-42876] [SC-126281][SQL] A DataType fizikaiadattípusának privátnak kell lennie[sql]
  • [SPARK-42101] [SC-125437][SQL] Az AQE támogatásának létrehozása az InMemoryTableScanExec szolgáltatásban
  • [SPARK-41290] [SC-124030][SQL] Az ALWAYS AS generált kifejezések támogatása a táblakivonatok létrehozása/cseréje oszlopaihoz
  • [SPARK-42870] [SC-126220][CONNECT] Ugrás toCatalystValue ide: connect-common
  • [SPARK-42247] [SC-126107][CONNECT][PYTHON] A UserDefinedFunction javítása returnType értékre
  • [SPARK-42875] [SC-126258][CONNECT][PYTHON] A toPandas javítása az időzónák és a térképtípusok megfelelő kezeléséhez
  • [SPARK-42757] [SC-125626][CONNECT] TextFile implementálása a DataFrameReaderhez
  • [SPARK-42803] [SC-126081][CORE][SQL][ML] GetParameterCount függvény használata getParameterTypes.length helyett
  • [SPARK-42833] [SC-126043][SQL] Újrabontás applyExtensions a következőben: SparkSession
  • [SPARK-41765] Visszaállítás "[SC-123550][SQL] V1 írási metrikák lekérése...
  • [SPARK-42848] [SC-126105][CONNECT][PYTHON] DataFrame.registerTempTable implementálása
  • [SPARK-42020] [SC-126103][CONNECT][PYTHON] UserDefinedType támogatása a Spark Connectben
  • [SPARK-42818] [SC-125861][CONNECT][PYTHON] DataFrameReader/Writer.jdbc implementálása
  • [SPARK-42812] [SC-125867][CONNECT] Client_type hozzáadása az AddArtifactsRequest protobuf üzenethez
  • [SPARK-42772] [SC-125860][SQL] JDBC-beállítások alapértelmezett értékének módosítása a leküldés igaz értékére
  • [SPARK-42771] [SC-125855][SQL] HiveGenericUDF újrabontása
  • [SPARK-25050] [SC-123839][SQL] Avro: összetett szakszervezetek írása
  • [SPARK-42765] [SC-125850][CONNECT][PYTHON] Importálás pandas_udf engedélyezése pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225][CORE] MapOutputTracker#getMapLocation tiszteletben kell tartani spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173][SQL] A drop partitions teljesítményének javítása
  • [SPARK-42689] [SC-125195][CORE][SHUFFLE] A ShuffleDriverComponent deklarálhatja, hogy az shuffle data megbízhatóan van-e tárolva
  • [SPARK-42726] [SC-125279][CONNECT][PYTHON] Megvalósít DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550][SQL] V1-alapú írási metrikák lekérése a WriteFilesba
  • [SPARK-41171] [SC-124191][SQL] Az ablakkorlát következtetése és leküldése az ablakon keresztül, ha a partitionSpec üres
  • [SPARK-42686] [SC-125292][CORE] Hibakeresési üzenetek formázásának elhalasztása a TaskMemoryManagerben
  • [SPARK-42756] [SC-125443][CONNECT][PYTHON] Segédfüggvény a proto literál értékké alakításához a Python-ügyfélben
  • [SPARK-42793] [SC-125627][CONNECT] connect modulhoz szükséges build_profile_flags
  • [SPARK-42701] [SC-125192][SQL] A try_aes_decrypt() függvény hozzáadása
  • [SPARK-42679] [SC-125438][CONNECT][PYTHON] createDataFrame nem működik nem null értékű sémával
  • [SPARK-42733] [SC-125542][CONNECT][Nyomon követés] Írás elérési út vagy táblázat nélkül
  • [SPARK-42777] [SC-125525][SQL] A TimestampNTZ-katalógusstatisztikák statisztikáinak statisztikáinak statisztikává alakításának támogatása
  • [SPARK-42770] [SC-125558][CONNECT] Hozzáadás truncatedTo(ChronoUnit.MICROS) a SQLImplicitsTestSuite Java 17 napi teszt GA-feladatátadásához
  • [SPARK-42752] [SC-125550][PYSPARK][SQL] PySpark-kivételek nyomtathatóvá tétele az inicializálás során
  • [SPARK-42732] [SC-125544][PYSPARK][CONNECT] Spark Connect-munkamenet getActiveSession metódusának támogatása
  • [SPARK-42755] [SC-125442][CONNECT] A konstansértékek konvertálása connect-common
  • [SPARK-42747] [SC-125399][ML] A LoR és az AFT helytelen belső állapotának javítása
  • [SPARK-42740] [SC-125439][SQL] Kijavítottuk azt a hibát, amely miatt a leküldéses eltolás vagy a lapozás érvénytelen egy beépített dialektus esetében
  • [SPARK-42745] [SC-125332][SQL] Továbbfejlesztett AliasAwareOutputExpression a DSv2-vel működik
  • [SPARK-42743] [SC-125330][SQL] A TimestampNTZ-oszlopok elemzésének támogatása
  • [SPARK-42721] [SC-125371][CONNECT] RPC-naplózási elfogó
  • [SPARK-42691] [SC-125397][CONNECT][PYTHON] Dataset.szemanticHash implementálása
  • [SPARK-42688] [SC-124922][CONNECT] Connect proto request client_id átnevezése session_id
  • [SPARK-42310] [SC-122792][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339][CORE] Utils.bytesToString rutinok optimalizálása
  • [SPARK-42725] [SC-125296][CONNECT][PYTHON] A LiteralExpression-támogatás tömbparamjainak létrehozása
  • [SPARK-42702] [SC-125293][SPARK-42623][SQL] Paraméteres lekérdezés támogatása az alkérésben és a CTE-ben
  • [SPARK-42697] [SC-125189][WEBUI] Az /api/v1/applications javítása az időtartam mező 0 helyett teljes üzemidejének visszaadásához
  • [SPARK-42733] [SC-125278][CONNECT][PYTHON] A DataFrameWriter.save javítása elérési útparaméter nélküli működéshez
  • [SPARK-42376] [SC-124928][SS] Vízjel propagálásának bevezetése az operátorok között
  • [SPARK-42710] [SC-125205][CONNECT][PYTHON] FrameMap proto átnevezése MapPartitions-ra
  • [SPARK-37099] [SC-123542][SQL] A Rangsoralapú szűrő ablakának csoportkorlátjának bevezetése a top-k számítás optimalizálása érdekében
  • [SPARK-42630] [SC-125207][CONNECT][PYTHON] A NemparsedDataType és a DDL-sztring késleltetési elemzése, amíg a SparkConnectClient el nem érhető
  • [SPARK-42690] [SC-125193][CONNECT] CSV/JSON-elemzési függvények implementálása Scala-ügyfélhez
  • [SPARK-42709] [SC-125172][PYTHON] A rendelkezésre állás feltételezésének __file__ eltávolítása
  • [SPARK-42318] [SC-122648][SPARK-42319][SQL] Név hozzárendelése LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183][SQL] JSON "timestamp_ltz" adattípus támogatása TimestampType néven
  • [SPARK-42722] [SC-125175][CONNECT][PYTHON] A Python Connect def schema() nem gyorsítótárazza a sémát
  • [SPARK-42643] [SC-125152][CONNECT][PYTHON] Java (összesítő) felhasználó által definiált függvények regisztrálása
  • [SPARK-42656] [SC-125177][CONNECT][Nyomon követés] A spark-connect szkript javítása
  • [SPARK-41516] [SC-123899] [SQL] Tábla létrehozásához használt lekérdezés felülbírálása a jdbc-dialektusok számára
  • [SPARK-41725] [SC-124396][CONNECT] A DF.sql() lelkes végrehajtása
  • [SPARK-42687] [SC-124896][SS] Jobb hibaüzenet a streamelés nem támogatott pivot műveletéhez
  • [SPARK-42676] [SC-124809][SS] Ideiglenes ellenőrzőpontok írása a streamelési lekérdezésekhez a helyi fájlrendszerbe akkor is, ha az alapértelmezett FS másként van beállítva
  • [SPARK-42303] [SC-122644][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][SQL] Győződjön meg arról, hogy az "intervallum" után legalább egy időegység
  • [SPARK-42649] [SC-124576][CORE] Távolítsa el a szabványos Apache-licenc fejlécét a külső forrásfájlok tetejéről
  • [SPARK-42611] [SC-124395][SQL] Belső mezők karakter-/varcharhossz-ellenőrzéseinek beszúrása a felbontás során
  • [SPARK-42419] [SC-124019][CONNECT][PYTHON] Migrálás hiba keretrendszerbe a Spark Connect Column API-hoz.
  • [SPARK-42637] [SC-124522][CONNECT] SparkSession.stop() hozzáadása
  • [SPARK-42647] [SC-124647][PYTHON] Elavult és eltávolított numpy-típusok aliasának módosítása
  • [SPARK-42616] [SC-124389][SQL] A SparkSQLCLIDriver csak az elindított hive sessionState bezárásával zárható be
  • [SPARK-42593] [SC-124405][PS] Elavult > távolítsa el a pandas 2.0-ban eltávolítandó API-kat.
  • [SPARK-41870] [SC-124402][CONNECT][PYTHON] A createDataFrame javítása duplikált oszlopnevek kezeléséhez
  • [SPARK-42569] [SC-124379][CONNECT] Kivételek kizárása a nem támogatott munkamenet API-hoz
  • [SPARK-42631] [SC-124526][CONNECT] Egyéni bővítmények támogatása a Scala-ügyfélben
  • [SPARK-41868] [SC-124387][CONNECT][PYTHON] CreateDataFrame javítása az időtartamok támogatásához
  • [SPARK-42572] [SC-124171][SQL][SS] A StateStoreProvider.validateStateRowFormat viselkedésének javítása

Karbantartási frissítések

Lásd a Databricks Runtime 13.1 karbantartási frissítéseit.

Rendszerkörnyezet

  • Operációs rendszer: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Telepített Python-kódtárak

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.2.1 attrs 21.4.0 backcall 0.2.0
beautifulsoup4 4.11.1 fekete 22.6.0 fehérítő 4.1.0
villogó 1.4 boto3 1.24.28 botocore 1.27.28
minősítés 2022.9.14 cffi 1.15.1 karakterkészlet 4.0.0
charset-normalizer 2.0.4 kattintás 8.0.4 kriptográfia 37.0.1
biciklista 0.11.0 Cython 0.29.32 dbus-python 1.2.18
hibakeresés 1.5.1 lakberendező 5.1.1 defusedxml 0.7.1
distlib 0.3.6 docstring-to-markdown 0,12 belépési pontok 0,4
Végrehajtó 1.2.0 aspektusok áttekintése 1.0.3 fastjsonschema 2.16.3
filelock 3.12.0 betűtípusok 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
jupyter-client 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgetek 1.0.0 kulcstartó 23.5.0 kiwisolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline 0.1.6
Mccabe 0.7.0 mistune 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
jegyzetfüzet 6.4.12 numpy 1.21.5 oauthlib 3.2.0
csomagolás 21,3 pandas 1.4.4 pandocfilters 1.5.0
parso 0.8.3 pathspec 0.9.0 Patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Párna 9.2.0
mag 22.2.2 platformdirs 2.5.2 ábrázolás 5.9.0
pluggy 1.0.0 prometheus-client 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
pyzmq 23.2.0 kérelmek 2.28.1 kötél 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 scipy 1.9.1
tengeri 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
setuptools 63.4.1 Hat 1.16.0 levessieve 2.3.1
ssh-import-id 5,11 veremadatok 0.6.2 statsmodels 0.13.2
Kitartás 8.1.0 terminado 0.13.1 testpath 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornádó 6.1 árulók 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 felügyelet nélküli frissítések 0,1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
webencodings 0.5.1 whatthepatch 1.0.2 kerék 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Telepített R-kódtárak

Az R-kódtárak a Microsoft CRAN 2023.02.10-i pillanatképéből vannak telepítve.

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
nyíl 10.0.1 askpass 1,1 assertthat 0.2.1
backports 1.4.1 alap 4.2.2 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.3
indítás 1.3-28 főz 1.0-8 Brio 1.1.3
seprű 1.0.3 bslib 0.4.2 gyorsítótár 1.0.6
hívó 3.7.3 kalap 6.0-93 cellranger 1.1.0
chron 2.3-59 osztály 7.3-21 Cli 3.6.0
clipr 0.8.0 óra 0.6.1 fürt 2.1.4
kódtoolok 0.2-19 színtér 2.1-0 commonmark 1.8.1
fordítóprogram 4.2.2 config 0.3.1 cpp11 0.4.3
zsírkréta 1.5.2 hitelesítő adatok 1.3.2 csavarodik 5.0.0
data.table 1.14.6 adatkészletek 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 emészt 0.6.31 levilágított 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
három pont 0.3.2 evaluate 0.20 fani 1.0.4
farver 2.1.1 gyorstérkép 1.1.0 fontawesome 0.5.0
forcats 1.0.0 foreach 1.5.2 külföldi 0.8-82
kovácsol 0.2.0 Fs 1.6.1 jövő 1.31.0
future.apply 1.10.0 gargarizál 1.3.0 Generikus 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globális 0.16.2
ragasztó 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 grafika 4.2.2 grDevices 4.2.2
rács 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 kikötő 2.5.1
highr 0.10 Hms 1.1.2 htmltoolok 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Azonosítók 1.0.1 ini 0.3.1 ipred 0.9-13
izoband 0.2.7 iterátorok 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 knitr 1.42
címkézés 0.4.2 később 1.3.0 rács 0.20-45
láva 1.7.1 életciklus 1.0.3 figyelő 0.9.0
lubridate 1.9.1 magrittr 2.0.3 markdown 1,5
TÖMEG 7.3-58.2 Mátrix 1.5-1 memoise 2.0.1
metódusok 4.2.2 mgcv 1.8-41 MIME 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modellező 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 parallel 4.2.2
párhuzamosan 1.34.0 pillér 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 rétegelt 1.8.8 dicséret 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 haladás 1.2.2
progressr 0.13.0 Ígér 1.2.0.1 Proto 1.0.0
helyettes 0.4-27 Ps 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
olvasó 2.1.3 readxl 1.4.2 receptek 1.0.4
Visszavágót 1.0.1 visszavágó2 2.1.2 Távirányító 2.4.2
reprex 2.0.2 újraformázás2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 mérleg 1.2.1
választó 0.4-2 sessioninfo 1.2.2 alak 1.4.6
Fényes 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 térbeli 7.3-15 splines 4.2.2
sqldf 0.4-11 NÉGYZET 2021.1 statisztika 4.2.2
statisztikák4 4.2.2 stringi 1.7.12 sztring 1.5.0
túlélés 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 szövegformázás 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 timechange 0.2.0 timeDate 4022.108
tinytex 0.44 eszközök 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.3
eszközök 4.2.2 uuid 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 vroom 1.6.1 Waldo 0.4.0
bajusz 0.4.1 withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 fütyülés 2.2.2

Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)

Csoportazonosító Összetevő azonosítója Verzió
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics patak 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml osztálytárs 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.koffein koffein 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java 1.1-natívok
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java 1.1-natívok
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natívok
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natívok
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Csellengő 1.7.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava gujávafa 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-naplózás commons-naplózás 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics metrikamag 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics metrics-healthchecks 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metrics-servlets 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-zokni 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx gyűjtő 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktiválás 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine pác 1.3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow nyílformátum 11.0.0
org.apache.arrow nyíl-memóriamag 11.0.0
org.apache.arrow nyíl-memória-netty 11.0.0
org.apache.arrow nyíl-vektor 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurátor-ügyfél 2.13.0
org.apache.curator kurátor-keretrendszer 2.13.0
org.apache.curator kurátor-receptek 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby keménykalap 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy borostyán 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc orc-shims 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.22
org.apache.yetus célközönség-széljegyzetek 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-juta 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty móló-folytatás 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty móló plusz 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty jetty-security 9.4.50.v20221201
org.eclipse.jetty jetty-server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty jetty-webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-api 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-client 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-server 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-lokátor 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.7.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Végleges
org.jdbi jdbi 2.63.1
org.jetbrains Széljegyzetek 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Alátéteket 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt teszt-interfész 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest scalatest-kompatibilis 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten három-extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1