Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Az alábbi kibocsátási megjegyzések az Apache Spark 4.1.0 által üzemeltetett Databricks Runtime 18.0-ról nyújtanak információkat.
Az Azure Databricks 2026 januárjában adta ki ezt a verziót.
Új funkciók és fejlesztések
- Általánosan elérhető az SQL-szkriptelés
- Redshift JDBC-illesztő frissítése 2.1.0.28-ra
- Megosztott elkülönítés végrehajtási környezete a Unity Catalog Python UDF-jeihez
- SQL-ablakfüggvények metrikus nézetekben
- Dinamikus shuffle partícióbeállítás állapot nélküli streamelési lekérdezésekben
- Az adaptív lekérdezésvégrehajtás és az automatikus optimalizálású keverés az állapotmentes streamelési lekérdezésekben
-
FILTERa mértékösszesítő függvények záradéka a metrikanézetekben - Literális sztring-összevonás mindenhol
- Paraméterjelölők mindenhol
- IDENTIFIER záradék mindenhol
- Új BITMAP_AND_AGG függvény
- Új KLL_Sketch függvénytár
- 1.16.0-ra frissített Apache Parquet-kódtár
Általánosan elérhető az SQL-szkriptelés
Az SQL-szkriptelési funkció már általánosan elérhető.
Redshift JDBC-illesztő frissítése 2.1.0.28-ra
A Redshift JDBC-illesztő a 2.1.0.28-ra lett frissítve.
Megosztott elkülönítés végrehajtási környezete a Unity Catalog Python UDF-jeihez
Az azonos tulajdonossal rendelkező Unity Catalog Python UDF-jei alapértelmezés szerint megoszthatnak egy elkülönítési környezetet. Ez javíthatja a teljesítményt és csökkentheti a memóriahasználatot az elindítandó különálló környezetek számának csökkentésével.
Annak érdekében, hogy az UDF mindig teljesen izolált környezetben fusson, adja hozzá a STRICT ISOLATION jellemző záradékot. Lásd: Környezetelkülönítés.
SQL-ablakfüggvények metrikanézetekben
Mostantól az SQL-ablakfüggvények metrikanézetekben való használatával kiszámíthatja a futó összegeket, a rangsorolásokat és az egyéb ablakalapú számításokat.
Dinamikus shuffle partícióbeállítások állapotmentes streamelési lekérdezésekben
Mostantól a lekérdezés újraindítása nélkül módosíthatja az állapot nélküli streamelési lekérdezésekben lévő shuffle partíciók számát.
Adaptív lekérdezés végrehajtása és automatikusan optimalizált shuffle állapot nélküli streamelési lekérdezésekben
Az adaptív lekérdezések végrehajtása (AQE) és az automatikusan optimalizált shuffle (AOS) mostantól támogatott az állapot nélküli streamelési lekérdezésekben.
FILTER a mértékösszesítő függvények záradéka a metrikanézetekben
Most már használhatja a FILTER záradékot a mérőszámösszesítő függvényekkel a metrikanézetekben az aggregálásonkénti szűrők meghatározásához, amikor metrikanézet-mértékekre hivatkozik.
Literal stringek egyesítése mindenhol
A szekvenciális karakterlánc-literelek összefűzésének lehetősége, mint amilyen a 'Hello' ' World', kibővült a kifejezéseken kívül bárhol másutt is, ahol karakterlánc-literelek megengedettek. Például: COMMENT 'This' ' is a ' 'comment'. Részletekért lásd STRING a típust .
Paraméterjelölők mindenhol
Mostantól a nevesített (:param) és a névtelen (?) paraméterjelölőket gyakorlatilag bárhol használhatja, ahol a megfelelő típusú literális érték használható.
Ide tartoznak a DDL-utasítások paraméterjelölői, például a CREATE VIEW v AS SELECT ? AS c1, az oszloptípusok DECIMAL(:p, :s) vagy a COMMENT ON t IS :comment.
Ezzel a képességgel számos SQL-utasítást paraméterezhet anélkül, hogy a kódot SQL-injektálási támadásoknak teszi ki.
Részletekért tekintse meg a paraméterjelölőket .
IDENTIFIER záradék mindenhol
Az SQL-objektumnevekre vetítő sztringeket tartalmazó záradék elérési tartományát kibővítették IDENTIFIER, hogy szinte mindenhol elérhető legyen, ahol azonosító megengedett.
A literal string egyesítések és a paraméterjelölők fejlesztései mellett mostantól bármire alkalmazhat paraméterezést az oszlop-aliasoktól (AS IDENTIFIER(:name)) az oszlopdefiníciókig bezárólag (IDENTIFIER(:pk) BIGINT NOT NULL). Részletekért lásd IDENTIFIER záradék.
Új BITMAP_AND_AGG függvény
A függvények meglévő kódtára BITMAP egy új BITMAP_AND_AGG függvénnyel lett kerekítve.
Új KLL_Sketch függvénytár
Most már használhat egy új függvénytárat, amely KLL-vázlatokat készít a hozzávetőleges kvantitális számításokhoz:
-
kll_sketch_agg_bigintösszesítő függvény -
kll_sketch_get_quantile_bigintfüggvény -
kll_sketch_merge_bigintfüggvény -
kll_sketch_agg_doubleösszesítő függvény -
kll_sketch_get_quantile_doublefüggvény -
kll_sketch_merge_doublefüggvény -
kll_sketch_agg_floatösszesítő függvény -
kll_sketch_get_quantile_floatfüggvény -
kll_sketch_merge_floatfüggvény -
kll_sketch_get_n_bigintfüggvény -
kll_sketch_get_rank_bigintfüggvény -
kll_sketch_to_string_bigintfüggvény -
kll_sketch_get_n_doublefüggvény -
kll_sketch_get_rank_doublefüggvény -
kll_sketch_to_string_doublefüggvény -
kll_sketch_get_n_floatfüggvény -
kll_sketch_get_rank_floatfüggvény -
kll_sketch_to_string_floatfüggvény
1.16.0-ra frissített Apache Parquet-kódtár
Az Apache Parquet-kódtár az 1.16.0-s verzióra lett frissítve.
Viselkedési változások
- A JDK 21 mostantól az alapértelmezett Java Development Kit
-
FSCK REPAIR TABLEalapértelmezés szerint metaadat-javítást tartalmaz - Nullálhatóság megőrizve a tömb- és térképtípusok esetében a Spark Connect Scala kliensben
-
FSCK REPAIR TABLE DRY RUNkimeneti séma frissítve -
SHOW TABLES DROPPEDtiszteli aLIMITzáradékot - Az olvasások és az automatikusan optimalizált írások között igazított prorációs tényezők
- Python UDF-végrehajtás egységesítve a PySparkban és a Unity-katalógusban
- Továbbfejlesztett hibaüzenetek a Kafka-összekötő bejelentkezési modullal kapcsolatos problémáival kapcsolatban
-
Időutazási korlátozások és
VACUUMmegőrzési viselkedés -
BinaryTypebytestérképek alapértelmezés szerint a PySparkban - A NULL struktúrák meg vannak őrizve a Delta MERGE és a streamelési írási műveletek soránUPDATE
- Parquet-fájlokban materializált partícióoszlopok
- Az időbélyeg-partíció értékei most már megfelelnek a Spark-munkamenet időzónáinak
-
DESCRIBE TABLEa kimenet metaadatoszlopot tartalmaz
A JDK 21 mostantól az alapértelmezett Java Development Kit
A Databricks Runtime 18.0 a JDK 21-et használja alapértelmezett Java Development Kitként. A JDK 21 általánosan elérhető, és hosszú távú támogatási (LTS) kiadás. Korábban az alapértelmezett JDK 17 volt.
Jelentős változások a JDK 21-ben:
-
Double.toString()ésFloat.toString()most a legrövidebb egyedi sztring-ábrázolásokat hozza létre, amelyek egyes peremes esetekben eltérhetnek a JDK 17 kimenetétől. -
Thread.stop(),Thread.suspend()ésThread.resume()most dobjaUnsupportedOperationException. - A frissített területi adatok (CLDR v42) hatással lehetnek a dátum- és idő- és számformázásra.
Ha kompatibilitási problémákat tapasztal, térjen vissza a JDK 17-esre. További információ a JDK-verziók konfigurálásáról: Fürt létrehozása adott JDK-verzióval. A JDK 17 és a JDK 21 közötti változások teljes listájáért tekintse meg a hivatalos JDK-gyártó kibocsátási megjegyzéseit.
FSCK REPAIR TABLE alapértelmezés szerint metaadat-javítást tartalmaz
A FSCK REPAIR TABLE parancs mostantól tartalmaz egy kezdeti metaadat-javítási lépést a hiányzó adatfájlok keresése előtt. A parancs sérült ellenőrzőpontokkal vagy érvénytelen partícióértékekkel rendelkező táblákon is használható.
Az érték nullázhatósága megmarad a tömb és térkép típusoknál a Spark Connect Scala kliensben.
A tömb- és térképtípusok nullabilitása mostantól megmarad a Spark Connect Scala-ügyfél beírt literáljainak esetében. Korábban a tömbök és a térképek értékei mindig null értékűek voltak.
FSCK REPAIR TABLE DRY RUN kimeneti séma frissítve
A dataFilePath oszlop a FSCK REPAIR TABLE DRY RUN kimeneti sémában mostantól nullázható az új problématípusok jelentésének támogatásához, ha az adatfájl elérési útja nem alkalmazható.
SHOW TABLES DROPPED respects LIMIT klauzula
A SHOW TABLES DROPPED parancs most már helyesen betartja a záradékot LIMIT .
Az olvasások és az automatikusan optimalizált írások között igazított prorációs tényezők
A partícióméretezés prorációs tényezői mostantól következetesen használják a tört értékeket az olvasási műveletek és az automatikusan optimalizált írások között. Ez a módosítás eltérő számú feladatot eredményezhet az olvasási műveletekhez.
Python UDF-végrehajtás egységesítve a PySparkban és a Unity-katalógusban
A Unity Catalog Python UDF-jei mostantól az Apache Arrowt használják alapértelmezett csereformátumként, javítva az általános teljesítményt, és igazodnak a Nyíloptimalizált Python UDF-ek viselkedéséhez az Apache Sparkban. Ennek a változásnak a részeként a TIMESTAMP Python UDF-eknek átadott értékek már nem tartalmazzák az időzónával kapcsolatos információkat az datetime objektum attribútumában tzinfo . Maguk az időbélyegértékek UTC-ben maradnak, de az időzóna metaadatait a rendszer most elveti.
Ha az UDF az időzónára vonatkozó információkra támaszkodik, helyre kell állítania azt a date = date.replace(tzinfo=timezone.utc) használatával. További információkért tekintse meg az időbélyeg időzónának viselkedését a bemenetek esetében.
Továbbfejlesztett hibaüzenetek a Kafka összekötő bejelentkezési modul problémáihoz
Ha a Kafka-összekötőt nem árnyékolt bejelentkezési modulosztálysal használja, az Azure Databricks mostantól olyan hibaüzeneteket biztosít, amelyek a megfelelő árnyékolt osztályelőtag (kafkashaded.org.apache.kafka vagy kafkashaded.software.amazon.msk.auth.iam) használatát javasolják.
Időutazási korlátozások és VACUUM megőrzési viselkedés
Az Azure Databricks mostantól letiltja az összes tábla küszöbértékén túli deletedFileRetentionDuration időutazási lekérdezéseket. A VACUUM parancs figyelmen kívül hagyja a megőrzési időtartam argumentumát, kivéve, ha az érték 0 óra. Nem állíthat be deletedFileRetentionDuration nagyobb értéket, mint logRetentionDuration vagy fordítva.
BinaryType alapértelmezés szerint a bytes-re leképeződik a PySparkban
A PySparkbanBinaryType most már konzisztensen a Pythonra byteslesz leképezve. Korábban a PySpark a BinaryType elemet a kontextustól függően a bytes vagy a bytearray elemnek feleltette meg. A régi viselkedés visszaállításához állítsa a spark.sql.execution.pyspark.binaryAsBytes értéket false-re.
NULL struktúrák megtartása a Delta MERGE, UPDATE és streamelési írási műveletek során
A NULL-szerkezetek mostantól NULL értékként maradnak meg a Delta MERGE-ben, valamint a strukturált típuskonverziót tartalmazó streamelési írási műveletekben. Korábban a NULL-szerkezetek ki lettek bontva NULL mezőkkel rendelkező szerkezetekre. A NULL struktúra mostantól NULL marad, ahelyett, hogy az összes NULL mezővel rendelkező struktúrává alakult volna.
Parquet-fájlokban materializált partícióoszlopok
A particionált Delta-táblák mostantól az újonnan megírt Parquet formátumú adatfájlokban megjelenítik a partícióoszlopokat. Korábban a partícióértékek a Delta tranzakciónapló metaadataiban voltak tárolva, és a könyvtárak elérési útvonalaiban tükröződtek vissza, azonban nem jelentek meg oszlopként magukban a Parquet-fájlokban. Ez a módosítás megfelel az Apache Iceberg és az UniForm viselkedésének, és hatással lehet azokra a számítási feladatokra, amelyek közvetlenül olvassák a Delta Lake által írt Parquet-fájlokat, mivel az újonnan írt fájlok további partícióoszlopokat tartalmaznak.
Az időbélyeg-partíció értékei most már megfelelnek a Spark-munkamenet időzónáinak
Korábban az időbélyeg partícióértékeket helytelenül konvertálták UTC-vé a JVM időzónával a spark.sql.session.timeZone konfiguráció tiszteletben tartása helyett. Az időbélyeg-partíció értékei a Spark-munkamenet időzónának beállításával megfelelően vannak módosítva.
DESCRIBE TABLE a kimenet metaadatoszlopot tartalmaz
A kimenet DESCRIBE TABLE [EXTENDED] mostantól minden táblatípushoz tartalmaz egy új metadata oszlopot. Ez az oszlop JSON-sztringként definiált szemantikai metaadatokat (megjelenítendő nevet, formátumot és szinonimákat) tartalmaz.
Könyvtárfrissítések
Frissített Python-kódtárak:
- anyio 4.6.2-től 4.7.0-ra
- asttokens 2.0.5-ről 3.0.0-ra
- azure-core 1.34.0-tól 1.37.0-sig
- azure-mgmt-core 1.5.0-ról 1.6.0-ra
- azure-storage-blob 12.23.0-ról 12.28.0-ra
- azure-storage-file-datalake 12.17.0-tól 12.22.0-ra
- boto3 1.36.2 és 1.40.45 között
- botocore 1.36.3-tól 1.40.45-ösig
- minősítés 2025.1.31-től 2025.4.26-ra
- kattintson a 8.1.7-ről a 8.1.8-ra
- titkosítás 43.0.3 és 44.0.1 között
- Cython 3.0.12-től 3.1.5-ig
- databricks-sdk 0.49.0 és 0.67.0 között
- 1.2.13 és 1.2.18 közötti verziók elavultnak minősítve
- végrehajtás a 0.8.3-tól az 1.2.0-sig
- fastapi 0.115.12-től 0.128.0-ra
- filelock 3.18.0-tól 3.17.0-ra
- google-api-core 2.20.0-tól 2.28.1-esig
- google-hitelesítés 2.40.0-tól 2.47.0-ig
- google-cloud-core 2.4.3-tól 2.5.0-ra
- google-cloud-storage 3.1.0 és 3.7.0 között
- google-crc32c 1.7.1 és 1.8.0 között
- google-resumable-media 2.7.2-től 2.8.0-ra
- h11 0.14.0 és 0.16.0 között
- httpcore 1.0.2 és 1.0.9 között
- httpx 0.27.0-ról 0.28.1-re
- isodate 0.6.1 és 0.7.2 között
- Jinja2 3.1.5-től 3.1.6-osig
- jupyter-események 0.10.0 és 0.12.0 között
- jupyter-lsp 2.2.0 és 2.2.5 között
- jupyter_server 2.14.1-től 2.15.0-ra
- jupyter_server_terminals 0.4.4-től 0.5.3-ra
- mistune 2.0.4-ről 3.1.2-re
- mlflow-skinny 3.0.1-től 3.8.1-esig
- mmh3 5.1.0-tól 5.2.0-ig
- Az msal 1.32.3 verzióról 1.34.0 verzióra történő frissítés.
- nbclient 0.8.0-tól 0.10.2-ig
- nbconvert 7.16.4-ről 7.16.6-ra
- nodeenv 1.9.1 és 1.10.0 között
- notebook_shim 0.2.3-ról 0.2.4-re
- opentelemetry-api 1.32.1-től 1.39.1-esig
- opentelemetry-sdk 1.32.1 és 1.39.1 között
- opentelemetry-szemantic-conventions from 0.53b1 to 0.60b1
- platformdirs 3.10.0 és 4.3.7 között
- prometheus_client 0.21.0 és 0.21.1 között
- proto-plus 1.26.1-től 1.27.0-ra
- psycopg2 2.9.3–2.9.11
- pyarrow 19.0.1-től 21.0.0-ra
- Pygments 2.15.1–2.19.1
- pyiceberg 0.9.0-ról 0.10.0-ra
- python-lsp-server 1.12.0 és 1.12.2 között
- kötél 1.12.0-tól 1.13.0-ra
- s3transfer 0.11.3-tól 0.14.0-ra
- scipy 1.15.1 verzióról 1.15.3 verzióra
- setuptools 74.0.0-tól 78.1.1-ig
- hat az 1.16.0-tól az 1.17.0-sig
- sqlparse frissítése 0.5.3-ról 0.5.5-re
- stack-data 0.2.0-tól 0.6.3-ig
- starlette 0.46.2-től 0.50.0-ra
- tornádó 6.4.2 és 6.5.1 között
- types-python-dateutil 2.9.0.20241206-tól 2.9.0.20251115-ig
- uvicorn 0.34.2-től 0.40.0-ra
- webcolors 24.11.1-től 25.10.0-ig
Frissített R-kódtárak:
- nyíl 19.0.1-től 22.0.0-ra
- 4.4.2 és 4.5.1 közötti alapverzió
- bigD 0.3.0 és 0.3.1 között
- seprű 1.0.7 és 1.0.10 között
- óra 0.7.2-től 0.7.3-ra
- commonmark frissítése 1.9.5-ről 2.0.0-ra
- fordító 4.4.2-es verzióról 4.5.1-es verzióra
- hitelesítő adatok 2.0.2-től 2.0.3-ra
- curl verzió 6.4.0-ról 7.0.0-ra
- data.table 1.17.0 és 1.17.8 között
- 4.4.2 és 4.5.1 közötti adatkészletek
- dbplyr 2.5.0 és 2.5.1 között
- devtools 2.4.5-től 2.4.6-osig
- diffobj 0.3.5-től 0.3.6-osig
- kivonat 0.6.37-től 0.6.39-ig
- downlit 0.4.4-ről 0.4.5-re
- dtplyr 1.3.1-től 1.3.2-esig
- kiértékelés 1.0.3-tól 1.0.5-ig
- fansi 1.0.6-ról 1.0.7-re
- forcats 1.0.0-tól 1.0.1-ig
- fs 1.6.5-től 1.6.6-osig
- verziófrissítés 1.34.0-tól 1.68.0-ra
- future.apply 1.11.3-tól 1.20.0-ig
- gargle verzió 1.5.2-ről 1.6.0-ra
- gert 2.1.4-től 2.2.0-ra
- ggplot2 3.5.1 és 4.0.1 között
- gh 1.4.1 és 1.5.0 között
- git2r 0.35.0-tól 0.36.2-től
- glmnet 4.1-8-tól 4.1-10-hez
- googledrive 2.1.1-től 2.1.2-re
- googlesheets4 1.1.1 és 1.1.2 között
- 4.4.2 és 4.5.1 közötti grafikus elemek
- grDevices 4.4.2-ről 4.5.1-re
- rács 4.4.2 és 4.5.1 között
- gt 0.11.1-től 1.1.0-ra
- hardhat 1.4.1 és 1.4.2 között
- 2.5.4-es verzióról 2.5.5-es verzióra
- hms 1.1.3-ról 1.1.4-re
- httpuv 1.6.15-től 1.6.16-osig
- httr2 1.1.1 és 1.2.1 között
- jsonlite 1.9.1-től 2.0.0-ra
- később 1.4.1-ről 1.4.4-re
- láva 1.8.1 és 1.8.2 között
- listenv 0.9.1-től 0.10.0-ra
- magrittr 2.0.3–2.0.4
- markdown 1.13-ból 2.0-ra
- módszerek 4.4.2–4.5.1
- miniUI 0.1.1.1 és 0.1.2 között
- mlflow 2.20.4-től 3.6.0-ra
- openssl 2.3.3-ról 2.3.4-re
- 4.4.2 és 4.5.1 közötti párhuzamos
- párhuzamosan az 1.42.0-tól az 1.45.1-ig
- pillér verziófrissítése 1.11.0-ról 1.11.1-re
- pkgbuild 1.4.6-tól 1.4.8-ra
- pkgdown 2.1.1-től 2.2.0-ra
- pkgload 1.4.0 és 1.4.1 között
- pROC 1.18.5–1.19.0.1 között
- prodlim 2024.06.25-től 2025.04.28-ra
- progressr frissítése 0.15.1-ről 0.18.0-ra
- ígéretek 1.3.2-től 1.5.0-ig
- ps 1.9.0 és 1.9.1 között
- purrr 1.0.4-től 1.2.0-ra
- ragg 1.3.3-tól 1.5.0-ra
- Rcpp 1.0.14-től 1.1.0-ra
- readr 2.1.5-verzióról 2.1.6-verzióra
- receptek 1.2.0-tól 1.3.1-től
- reshape2 1.4.4-ről 1.4.5-re
- rmarkdown 2.29-től 2.30-ig
- roxygen2 7.3.2-től 7.3.3-ig
- rprojroot 2.0.4-től 2.1.1-ig
- RSQLite 2.3.9-től 2.4.4-esig
- 2.1.2 és 3.0.0 közötti átirányítások
- rvest 1.0.4 és 1.0.5 között
- sass 0.4.9-ről 0.4.10-re
- skálázás 1.3.0-ról 1.4.0-ra
- fényes 1.10.0 és 1.11.1 között
- sparklyr frissítése 1.9.1-ről 1.9.3-ra
- SparkR 4.0.0 és 4.1.0 között
- sparsevctrs 0.3.1-ről 0.3.4-re
- Spline-ok 4.4.2-ről 4.5.1-re
- 4.4.2 és 4.5.1 közötti statisztikák
- stats4 4.4.2-tól 4.5.1-ig
- stringr 1.5.1-ről 1.6.0-ra
- systemfonts 1.2.1-ről 1.3.1-re
- tcltk 4.4.2 és 4.5.1 között
- A testthat 3.2.3 verziótól a 3.3.0 verzióig frissítve
- 1.0.0 és 1.0.4 közötti szövegformázás
- timeDate 4041.110-tól 4051.111-ig
- tinytex 0,56-tól 0,58-ra
- 4.4.2 és 4.5.1 közötti eszközök
- usethis 3.1.0 verzióról 3.2.1 verzióra
- utils 4.4.2-ről 4.5.1-re
- V8 6.0.2 és 8.0.1 között
- vroom 1.6.5-től 1.6.6-osig
- waldo 0.6.1 és 0.6.2 között
- xfun 0,51 és 0,54 között
- xml2 1.3.8-tól 1.5.0-ra
- zeallot 0.1.0-tól 0.2.0-ra
- zip 2.3.2-ről 2.3.3-ra
Frissített Java-kódtárak:
- com.amazonaws.amazon-kinesis-client 1.12.0 és 1.15.3 között
- com.amazonaws.aws-java-sdk-autoscaling verziója frissül 1.12.638-ról 1.12.681-re
- com.amazonaws.aws-java-sdk-cloudformation from 1.12.638 to 1.12.681
- com.amazonaws.aws-java-sdk-cloudfront 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-cloudhsm 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-cloudsearch 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-cloudtrail 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-cloudwatch 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-cloudwatchmetrics 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-codedeploy 1.12.638-ről 1.12.681-re
- com.amazonaws.aws-java-sdk-cognitoidentity 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-cognitosync 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-config 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-core 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-datapipeline 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-directconnect 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-directory 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-dynamodb 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-ec2 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-ecs 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-efs verziók 1.12.638-tól 1.12.681-ig
- com.amazonaws.aws-java-sdk-elasticache 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-elasticbeanstalk 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-elasticloadbalancing from 1.12.638 to 1.12.681
- com.amazonaws.aws-java-sdk-elastictranscoder 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-emr 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-glacier 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-glue 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-iam 1.12.638-tól 1.12.681-ig
- com.amazonaws.aws-java-sdk-importexport 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-kinesis 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-kms 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-lambda 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-logs 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-machinelearning verzióról 1.12.638 1.12.681-re
- com.amazonaws.aws-java-sdk-opsworks 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-rds 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-redshift 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-route53 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-s3 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-ses 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-simpledb 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-simpleworkflow 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-sns 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-sqs 1.12.638-tól 1.12.681-esig
- com.amazonaws.aws-java-sdk-ssm 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-storagegateway 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-sts 1.12.638 és 1.12.681 között
- com.amazonaws.aws-java-sdk-support 1.12.638–1.12.681
- com.amazonaws.aws-java-sdk-workspaces veriószámot 1.12.638-ról 1.12.681-re
- com.amazonaws.jmespath-java 1.12.638 és 1.12.681 között
- com.databricks.databricks-sdk-java 0.27.0-tól 0.53.0-ra
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 2.18.2 és 2.18.3 között
- com.github.luben.zstd-jni 1.5.6-10-től 1.5.7-6-ig
- com.google.flatbuffers.flatbuffers-java 24.3.25-ről 25.2.10-re
- com.google.guava.failureaccess 1.0.2-től 1.0.3-ra
- com.google.guava.guava 33.4.0-jre-ről 33.4.8-jre-re
- com.microsoft.sqlserver.mssql-jdbc 11.2.3.jre8 verzióról a 12.8.0.jre8 verzióra
- commons-cli.commons-cli 1.9.0 és 1.10.0 között
- commons-codec.commons-codec 1.17.2 és 1.19.0 között
- commons-fileupload.commons-fileupload verzióját 1.5-ről 1.6.0-ra frissítve/átváltva
- commons-io.commons-io 2.18.0 és 2.21.0 között
- dev.ludovic.netlib.arpack 3.0.3 és 3.0.4 között
- dev.ludovic.netlib.blas 3.0.3 és 3.0.4 között
- dev.ludovic.netlib.lapack 3.0.3 és 3.0.4 között
- io.dropwizard.metrics.metrics-annotation 4.2.30-ról 4.2.37-re
- io.dropwizard.metrics.metrics-core 4.2.30-ről 4.2.37-re
- io.dropwizard.metrics.metrics-graphite 4.2.30-ról 4.2.37-re
- io.dropwizard.metrics.metrics-healthchecks 4.2.30-tól 4.2.37-ig
- io.dropwizard.metrics.metrics-jmx 4.2.30 és 4.2.37 között
- io.dropwizard.metrics.metrics-json 4.2.30 és 4.2.37 között
- io.dropwizard.metrics.metrics-jvm 4.2.30 verzióról 4.2.37 verzióra
- io.dropwizard.metrics.metrics-servlets frissítve 4.2.30-ról 4.2.37-re
- io.netty.netty-all 4.1.118.Final-ről 4.2.7.Final-re
- io.netty.netty-buffer 4.1.118.Final-tól 4.2.7.Final-ig
- io.netty.netty-codec 4.1.118.Final-ról 4.2.7.Final-re
- io.netty.netty-codec-http-tól 4.1.118.Final-ig 4.2.7.Final
- io.netty.netty-codec-http2-tól 4.1.118.Final-re 4.2.7.Final-re
- io.netty.netty-codec-socks 4.1.118.Final-ról 4.2.7.Final-re
- io.netty.netty-common a 4.1.118.Final verzióról 4.2.7.Final verzióra
- io.netty.netty-handler 4.1.118.Final-ról 4.2.7.Final-ra
- io.netty.netty-handler-proxy 4.1.118.Final verzióról a 4.2.7.Final verzióra
- io.netty.netty-resolver verzióról 4.1.118.Final verzióra 4.2.7.Final
- io.netty.netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64 2.0.74.Final-db-r0-windows-x86_64
- io.netty.netty-tcnative-classes 2.0.70.Final-2.0.74.Final
- io.netty.netty-transport verzió 4.1.118.Final-ról 4.2.7.Final-re
- io.netty.netty-transport-classes-epoll 4.1.118.Final-4.2.7.Final
- io.netty.netty-transport-classes-kqueue 4.1.118.Final tól 4.2.7.Final ig
- io.netty.netty-transport-native-epoll a 4.1.118.Final-linux-x86_64 verzióról a 4.2.7.Final-linux-x86_64 verzióra
- io.netty.netty-transport-native-kqueue 4.1.118.Final-osx-x86_64-ról/-ről 4.2.7.Final-osx-x86_64-ra/-re
- io.netty.netty-transport-native-unix-common frissítése 4.1.118.Final-ról 4.2.7.Final-re
- joda-time.joda-time 2.13.0 és 2.14.0 között
- org.apache.arrow.arrow-format 18.2.0-ról 18.3.0-ra
- org.apache.arrow.arrow-memory-core 18.2.0-ról 18.3.0-ra
- org.apache.arrow.arrow-memory-netty 18.2.0-ról 18.3.0-ra
- org.apache.arrow.arrow-memory-netty-buffer-patch frissítése a 18.2.0-ról a 18.3.0-ra
- org.apache.arrow.arrow-vector 18.2.0-ról 18.3.0-ra frissítve
- org.apache.avro.avro 1.12.0 és 1.12.1 között
- org.apache.avro.avro-ipc 1.12.0 és 1.12.1 között
- org.apache.avro.avro-mapred 1.12.0-ról 1.12.1-re
- org.apache.commons.commons-collections4 4.4-től 4.5.0-s verzióig
- org.apache.commons.commons-compress verzióról 1.27.1 1.28.0-ra
- org.apache.commons.commons-lang3 3.17.0 és 3.19.0 között
- org.apache.commons.commons-text 1.13.0 és 1.14.0 között
- org.apache.curator.curator-client 5.7.1 és 5.9.0 között
- org.apache.curator.curator-framework 5.7.1-től 5.9.0-s verzióig
- org.apache.curator.curator-recipes 5.7.1-ról 5.9.0-ra
- org.apache.datasketches.datasketches-java változik 6.1.1-ről 6.2.0-ra
- org.apache.hadoop.hadoop-client-runtime 3.4.1-ről 3.4.2-re
- org.apache.orc.orc-core 2.1.1-shaded-protobuf-ból 2.2.0-shaded-protobuf-ra
- org.apache.orc.orc-format 1.1.0-shaded-protobuf verzióról 1.1.1-shaded-protobuf verzióra
- Az org.apache.orc.orc-mapreduce verziókövetés: 2.1.1-shaded-protobuf-ról 2.2.0-shaded-protobuf-ra.
- org.apache.orc.orc-shims frissítése 2.1.1-ről 2.2.0-ra
- org.apache.xbean.xbean-asm9-shaded 4.26-tól 4.28-ig
- org.apache.zookeeper.zookeeper frissítése 3.9.3-ról 3.9.4-re
- org.apache.zookeeper.zookeeper-jute 3.9.3 és 3.9.4 között
- org.eclipse.jetty.jetty-client 9.4.53.v20231009 és 10.0.26 között
- org.eclipse.jetty.jetty-http 9.4.53.v20231009-től 10.0.26-ig
- org.eclipse.jetty.jetty-io frissítve a 9.4.53.v20231009-ről 10.0.26-ra
- org.eclipse.jetty.jetty-jndi frissítés 9.4.53.v20231009 verzióról 10.0.26 verzióra
- org.eclipse.jetty.jetty-plus verzió 9.4.53.v20231009-ről 10.0.26-ra
- org.eclipse.jetty.jetty-proxy 9.4.53.v20231009-ről 10.0.26-ra
- org.eclipse.jetty.jetty-security változatának frissítése a 9.4.53.v20231009-ról a 10.0.26-ra
- org.eclipse.jetty.jetty-server 9.4.53.v20231009-ről 10.0.26-ra
- org.eclipse.jetty.jetty-servlet 9.4.53.v20231009-ról 10.0.26-ra
- org.eclipse.jetty.jetty-servlets 9.4.53.v20231009-ról 10.0.26-ra
- org.eclipse.jetty.jetty-util 9.4.53.v20231009-ről 10.0.26-ra
- org.eclipse.jetty.jetty-webapp 9.4.53.v20231009-ről 10.0.26-ra
- org.eclipse.jetty.jetty-xml 9.4.53.v20231009-ről 10.0.26-ra
- org.mlflow.mlflow-spark_2.13 2.9.1-től 2.22.1-esig
- org.objenesis.objenesis verzió 3.3-ról 3.4-re
- org.scala-lang.modules.scala-xml_2.13 2.3.0 és 2.4.0 között
Apache Spark
A Databricks Runtime 18.0 tartalmazza az Apache Spark 4.1.0-t. Ez a kiadás tartalmazza az előző verzióban szereplő összes Spark-javítást és fejlesztést, valamint a következőket:
- SPARK-54182 "[SQL][python] A df.toPandas nem nyílból való konvertálásának optimalizálása"
- SPARK-54134 Az Arrow memória használatának optimalizálása
- SPARK-54536 Hiányzó Shuffle FetchWaitTime gyűjtési költség ügyfél/várakozási idő alapján
- SPARK-54534 Hive-hez kapcsolódó örökölt hibakódok migrálása a megfelelő hibafeltételekbe
-
SPARK-54565 A SparkBuildInfo-nak be kell töltenie
spark-version-info.propertiesa saját osztálybetöltőjét - SPARK-54533 Metrika ExecutorSource.METRIC_RESULT_SIZE beállítása helyes értékkel
- SPARK-54478 Streamelési tesztek újbóli engedélyezése a kapcsolat kompatibilitás teszt CI folyamatához
-
SPARK-54552 Javítás
SparkConnectResultSet.getStringa bináris adattípus kezeléséhezUTF_8alkalmazásával - SPARK-54501 A Hive metaadattár partíciószűrő hibáinak hibakezelésének javítása
-
SPARK-54550 Finoman kezelése
ConnectExceptionSparkConnectStatement.close() -
SPARK-54020 Python API támogatása
spark.sql(...)a Spark Deklaratív folyamat lekérdezési függvényén belül - SPARK-53127 Az összes korlátlan rekurzió javítása a CTE normalizálásával
- SPARK-50072 Az ArithmeticException kezelése nagy értékekkel történő intervallum-elemzés során
-
SPARK-54299 Hibás példa lekérdezés kijavítása a következőben:
WindowGroupLimit - SPARK-54505 A createMetrics-hívás argumentumsorrendjének javítása a makeNegative függvényben
-
SPARK-54462 Mixin hozzáadása
SupportsV1OverwriteWithSaveAsTablea következőhöz:TableProvider - SPARK-54540 Néhány kisebb javítás a Connect JDBC-illesztőhöz
-
SPARK-54508 Javítás
spark-pipelinesa fájl elérési útjának hatékonyabb megoldásáhozspec - SPARK-54087 A Spark-végrehajtó indítási feladatának sikertelennek kell lennie, ha a feladat leállt üzenetét adja vissza
-
SPARK-53797 Javítás
FileStreamSource.takeFilesUntilMaxazipWithIndexhasználatának elkerülésére aindiceshasználatával - SPARK-54418 Hibaüzenetek és kódformázás javítása
- SPARK-54114 Támogatás a getColumns funkcióhoz a SparkConnectDatabaseMetaData-ban
- SPARK-54209 A SPARKConnectResultSet időbélyeg-típusának támogatása
- SPARK-54208 Támogatási idő típusa a SparkConnectResultSetben
- SPARK-54528 Zárja be az URLClassLoadert, hogy elkerülje az OOM-t
-
SPARK-54464 Ismétlődő
output.reservehívások eltávolításaassembleVariantBatch - SPARK-53635 A Scala UDF-ek támogatása Seq[Row] típusú bemeneti arg-ekkel
- SPARK-54493 MapType-hoz tartozó assertSchemaEqual funkció javítása
- SPARK-52515 A approx_top_k tesztelése be- és kikapcsolt jelzővel
- SPARK-54413 A Bootstrap 4.4.1-s verziójának frissítése a 4.6.2-re
-
SPARK-54497 Alkalmazása
functools.lru_cachea konverter gyorsítótárban - SPARK-54306 Variant-oszlopok jegyzetelése Variant logikai típusú széljegyzetekkel
- SPARK-54350 A SparkGetColumnsOperation ORDINAL_POSITION 1-alapúnak kell lennie
- SPARK-54130 Részletes hibaüzenetek hozzáadása katalógus-érvényesítési hibákhoz
- SPARK-54220 NullType/VOID/UNKNOWN típusok támogatása a Parquet fájlszerkezetben
- SPARK-54163 A particionálási és rendezési információk kanonikalizációjának vizsgálata
- SPARK-54377 Az IS NULL érték javítása COMMENT ONTABLE a táblázat megjegyzésének megfelelő eltávolításához
- SPARK-52767 A maxRows és a maxRowsPerPartition optimalizálása csatlakozáshoz és egyesítéshez
- SPARK-54063 Pillanatkép aktiválása a következő köteghez feltöltési késés esetén
- SPARK-54384 A BatchedSerializer _batched metódusának modernizálása
-
SPARK-54378 Eltávolítás
CreateXmlParser.scalaa modulbólcatalyst - SPARK-53103 "[SC-204946][ss] Hibajelzés, ha az állapotkönyvtár nem üres a lekérdezés indításakor"
- SPARK-53103 Hibajelzés, ha az állapotkönyvtár nem üres a lekérdezés indításakor
-
SPARK-54397 Hasholhatóvá tétel
UserDefinedType -
SPARK-54440 Adja meg az alapértelmezett folyamatspektrálfájl idiomatikus nevét,
spark-pipeline.yml - SPARK-54324 Teszt hozzáadása ügyfél-felhasználó-környezet bővítményekhez
- SPARK-54456 Munkavégző modul importálása elágazás után a holtpont elkerülése érdekében
-
SPARK-54427 A ColumnarRow meghívásának
copyengedélyezése variánstípusokkal - SPARK-54136 tervösszevonási logika kinyerése -ből
MergeScalarSubqueries-ba - SPARK-54389 A RocksDB State Store érvénytelen bélyeghiba kijavítása, ha a feladat sikertelenként van megjelölve az inicializálás során
- SPARK-54346 Állapot-újrapartíciós API és újraparticionálási futó bemutatása
- SPARK-53809 Canonicalization hozzáadása a DataSourceV2ScanRelation szolgáltatáshoz
- SPARK-54280 Folyamatellenőrzési pont tárterületének abszolút elérési úthoz való megkövetelése
- SPARK-54206 BINÁRIS típusú adatok támogatása a SparkConnectResultSetben
- SPARK-54319 BHJ LeftAnti frissítésnél a kimeneti sorok száma helytelen, amikor a kódfajgenerálás le van tiltva
-
SPARK-54355 Készítsen
spark.connect.session.planCompression.defaultAlgorithmtámogatásiNONE - SPARK-54341 Jegyezd meg a TimeTravelSpec-et azoknál a tábláknál, amelyeket a TableProvider segítségével töltöttél be.
- SPARK-54280 Visszaállítás "[SC-212148][sdp] A folyamat-ellenőrzőpont-tároló dir abszolút elérési útjának megkövetelése"
- SPARK-54354 Javítás a Spark elakadásának orvoslására, amikor nincs elegendő JVM heap memória a szórt hash reláció számára
- SPARK-54439 A KeyGroupedPartitioning és az illesztés kulcsmérete nem egyezik
- SPARK-54280 Folyamatellenőrzési pont tárterületének abszolút elérési úthoz való megkövetelése
- SPARK-54395 A RemoteBlockPushResolver osztály ismételten inicializálja az ObjectMappert
- SPARK-54207 Támogatja a Dátum típusú adatokat a SparkConnectResultSetben
-
SPARK-54182 A nyíl nélküli konvertálás optimalizálása
df.toPandas - SPARK-54312 Ne ütemezzenek ismétlődően feladatokat a SendHeartbeat/WorkDirClean különálló feldolgozóban
-
SPARK-54394 Áthelyezni
isJavaVersionAtMost17ésisJavaVersionAtLeast21core-bólcommon/utils-ba - SPARK-53927 Kinesis-ügyfél frissítése
- SPARK-54358 Ellenőrzőpont-dirs ütközik, ha a különböző sémákban lévő streamelési táblák neve megegyezik
-
SPARK-54310 Revert "[SC-212003][sql] Metrika hozzáadása
numSourceRowscímreMergeIntoExec" -
SPARK-54310 Metrika hozzáadása
numSourceRowsa következőhöz:MergeIntoExec - SPARK-53322 Csak akkor válassza ki a KeyGroupedShuffleSpec paramétert, ha az illesztés kulcspozíciói teljes mértékben leküldhetők
- SPARK-54270 A SparkConnectResultSet get* metódusnak meg kell hívnia a checkOpen metódust, és ellenőriznie kell az index határát
- SPARK-53849 A netty és a netty tc natív frissítése
- SPARK-54205 Decimális típusú adatok támogatása a SparkConnectResultSetben
- SPARK-54417 A skaláris allekérdezés hibaüzenetét kijavítottuk a IDENTIFIER záradékban
- SPARK-54113 A SparkConnectDatabaseMetaData getTables lekérdezésének támogatása
- SPARK-54303 Hibafeltétel normalizálása MISSING_CATALOG_ABILITY
- SPARK-54153 Profilkészítési iterátoralapú Python-UDF-ek támogatása
- SPARK-54349 Kód újrabontása a hibakezelő integrációs bővítményének egyszerűsítése érdekében
- SPARK-54317 Az Arrow konvertálási logika egységesítése a Klasszikus és Connect toPandas számára
- SPARK-54339 Az attribútumtérkép nem determinizmusának javítása
- SPARK-54112 Támogatja a getSchemas-t a SparkConnectDatabaseMetaData számára.
- SPARK-54180 A BinaryFileFormat toString parancsának felülbírálása
- SPARK-54213 Python 3.9 eltávolítása a Spark Connectből
- SPARK-54215 A SessionStateHelper tulajdonság hozzáadása a FilePartitionhoz
- SPARK-54115 A kapcsolati szerver műveleti szálainak megjelenítési sorrendjének növelése a szálkiírási oldalon.
- SPARK-54193 Elavult spark.shuffle.server.finalizeShuffleMergeThreadsPercent
- SPARK-54149 A tail-recursion engedélyezése, ahol csak lehetséges
- SPARK-54185 Elhagyott spark.shuffle.server.chunkFetchHandlerThreadsPercent
- A SPARK-54056 feloldja az SQLConf-beállítások helyettesítését a katalógusokban
- SPARK-54147 A OMP_NUM_THREADS beállítása alapértelmezés szerint spark.task.cpus értékre a BaseScriptTransformationExecben
- SPARK-54229 PySparkLogger létrehozása az UDF-ben naplófüggvény-hívásonként egy naplóbejegyzés tárolására
- SPARK-53337 XSS: Győződjön meg arról, hogy az alkalmazás neve a history page-en helyesen escape-elt legyen
- SPARK-54229 Az "[SC-211321][python] A PySparkLogger UDF-ekben naplófüggvény-hívásonként egy naplóbejegyzést tároló működésének visszaállítása" visszavonása
- SPARK-54373 A Feladat DAG inicializálásának SVG viewBox attribútumának nagyítása
- SPARK-54323 Változtassuk meg a naplók elérésének módját úgy, hogy a rendszernézet helyett a TVF-t használjuk.
- SPARK-54229 PySparkLogger létrehozása az UDF-ben naplófüggvény-hívásonként egy naplóbejegyzés tárolására
- SPARK-53978 A naplózás támogatása az illesztőprogram-oldali feldolgozókban
- SPARK-54146 Elavult Jackson API használatának törlése
- SPARK-54383 Az InternalRowComparableWrapper util előre elkészített sémavariánsának hozzáadása
- SPARK-54030 Felhasználóbarát helyességi üzenet hozzáadása a metaadatok sérülésének megtekintéséhez
- SPARK-54144 Rövidzárlatú Eval típusú következtetések
- SPARK-54030 Visszavonás: "[SC-210301][sql] Felhasználóbarát hibaüzenet hozzáadása a nézet metaadatainak sérülése esetén"
- SPARK-54028 Üres séma használata olyan nézet módosításakor, amely nem Hive-kompatibilis
- SPARK-54030 Felhasználóbarát helyességi üzenet hozzáadása a metaadatok sérülésének megtekintéséhez
-
SPARK-54085 Javítás
initializeaz opció hozzáadásáhozCREATEa következő helyen:DriverRunner - SPARK-53482MERGE INTO támogatás, ha a forrás kevésbé beágyazott mezővel rendelkezik, mint a cél
- SPARK-53905 A RelationResolution újrabontása a kód újrafelhasználásának engedélyezéséhez
- SPARK-53732 A TimeTravelSpec megjegyzése a DataSourceV2Relation alkalmazásban
- SPARK-54014 A SparkConnectStatement maximális sorainak támogatása
- SPARK-50906 Javítás Avro null ellenőrzésére az átrendezett szerkezet mezőknél
- SPARK-54396 Py4J-hívások optimalizálása a Dataframe.toArrow-ban
- SPARK-54344 Zárja le a munkafolyamatot, ha a kiürítés a daemon.py fájlban meghiúsul.
- SPARK-53977 Támogatás UDTF-ek naplózásához
- SPARK-52515 Az "[SC-199815][sql] Add approx_top_k function" ismételt alkalmazása
- SPARK-54340 A viztracer pyspark démonon/feldolgozókon való használatára vonatkozó képesség hozzáadása
-
SPARK-54379 Lambda-kötés áthelyezése külön
LambdaBinderobjektumba - SPARK-54029 Részletes hibaüzenet hozzáadása a tábla metaadatainak sérüléséhez a hibakeresés megkönnyítése érdekében
- SPARK-54002 A BeeLine és a Connect JDBC illesztő integrálásának támogatása
-
SPARK-54336 Javítsa a bemeneti típus ellenőrzést
BloomFilterMightContainaScalarSubqueryReference - SPARK-53406 Kerülje el a szükségtelen shuffle illesztést a közvetlen pass-through shuffle azonosítóban
- SPARK-54347 Py4J-hívások optimalizálása klasszikus adatkeretben
- SPARK-54062 MergeScalarSubqueries kód törlése
- SPARK-54054 Sorpozíció támogatása a SparkConnectResultSet számára
-
SPARK-54330 Py4J-hívások optimalizálása
spark.createDataFrame - SPARK-54332 Nincs szükség a PlanId hozzáadására a rollup/kocka/groupingSets oszlopnevek csoportosításához
- SPARK-53976 A naplózás támogatása a Pandas/Arrow UDF-ekben
- SPARK-54123 Időzónia hozzáadása az időbélyeg abszolút idővé alakításához
- SPARK-54356 Az EndToEndAPISuite kijavítása, amelyet a hiányzó tárológyökérséma okozott
- SPARK-54292 Aggregátumfüggvények támogatása GROUP BY |>SELECT csőoperátorokban (#180106) (#180368)
- SPARK-54376 A legtöbb folyamatkonfigurációs beállítás megjelölése belsőként
- SPARK-53975 Alapszintű Python-feldolgozónaplózási támogatás hozzáadása
- SPARK-54361 A Spark-verzió javítása a spark.sql.parser.singleCharacterPipeOperator.enabled 4.2.0-s tervezett értékére
- SPARK-51518 Támogatás | alternatívaként |> az SQL-cső operátori jogkivonatához
- SPARK-53535 A hiányzó szerkezetek kijavítása, amelyek mindig null értékként lesznek feltételezve
- SPARK-54294 A connect-kiszolgáló kinyomtatott IP-címének normalizálása
- SPARK-52439 Támogatási ellenőrzési kényszer null értékkel
-
SPARK-54352
SQLConf.canonicalizea sztringek normalizálásának központosítása érdekében kerül bevezetésre - SPARK-54183 Visszaállítás visszaállítása "[SC-211824][python][CONNECT] Kerülje az egyik köztes ideiglenes adatkeretet a Spark Connect toPandas()" során.
- SPARK-53573IDENTIFIER mindenhol
- SPARK-53573 Sztringkonstansok egyesítésének engedélyezése mindenhol
- SPARK-54240 Tömbelem katalizátorkifejezésének fordítása összekötőkifejezésre
-
SPARK-54334 A lambda és magasabb rendű függvények alatti szubquery kifejezések érvényesítésének áthelyezése a következőre:
SubqueryExpressionInLambdaOrHigherOrderFunctionValidator - SPARK-54183 Visszaállítás "[SC-211824][python][CONNECT] Kerülje az egyik köztes ideiglenes adatkeretet a Spark Connect toPandas()" során.
- SPARK-54183 Egy köztes ideiglenes adatkeret elkerülése a Spark-csatlakozáskor aPandas() szolgáltatáshoz
- SPARK-54264 A DeDup operátor használhatja a RocksDB keyExists()
-
SPARK-54269 Frissítés
cloudpicklea Python 3.14 3.1.2-re -
SPARK-54300 Py4J-hívások optimalizálása
df.toPandas - SPARK-54307 Hibajelzés, ha a streamlekérdezés állapotalapú művelettel újraindul, de üres állapotkönyvtár van
- SPARK-54117 Jobb hiba esetén jelezheti, hogy a TWS csak a RocksDB állapottároló-szolgáltatója esetén támogatott
- SPARK-53917 Nagy helyi kapcsolatok támogatása – nyomon követés
-
SPARK-54275 Nem használt kód eltávolítása a modulból
pipeline -
SPARK-54287 Python 3.14-támogatás hozzáadása a
pyspark-clientéspyspark-connectközött -
SPARK-53614 Támogatás hozzáadása
Iterator[pandas.DataFrame]aapplyInPandas - SPARK-54191 Hozzáadás egyszer a Defineflow Proto-hoz
- SPARK-54234 A PlanId-et nem kell csatolnia a df.groupBy oszlopneveinek csoportosításához
- SPARK-54231 Hézagok kitöltése SDP-dokumentumokban
- SPARK-54199 DataFrame API-támogatás hozzáadása új KLL quantiles vázlatfüggvényekhez (#178526)
- SPARK-52463 "[SC-211221][sdp] 'cluster_by' támogatásának hozzáadása a Python Pipelines API-kban"
- SPARK-52463 „[SC-211221][sdp] A 'cluster_by' támogatásának visszavonása a Python Pipelines API-kban”
- SPARK-53786 A speciális oszlopnévvel rendelkező alapértelmezett érték nem ütközhet valós oszlopokkal
- SPARK-54200 A KafkaConsumerPoolRealTimeModeSuite frissítése a groupIdPrefix egyidejű futtatásának biztonságához való használatához
- SPARK-52463 Cluster_by támogatása a Python Pipelines API-kban
-
SPARK-52509 Egyedi keverések eltávolítása a tartalék tárhelyről eseménykor
RemoveShuffle - SPARK-54187 "[SC-211150][python][CONNECT] Az összes konfiguráció lekérése egy kötegben a toPandasban"
- SPARK-53942 Állapot nélküli shuffle partíciók módosításának támogatása a streamelési lekérdezés újraindításakor
- SPARK-52515 A "[SC-199815][sql] Approx_top_k függvény hozzáadása" visszavonása
- SPARK-52515 Approx_top_k függvény hozzáadása
- SPARK-54078 Új teszt és az infra eltávolítása a régi tesztből
- SPARK-54178 A ResolveSQLOnFile hiba javítása
-
SPARK-53455 RPC hozzáadása
CloneSession - SPARK-54178 "[SC-2111111][sql] Hiba javítása a ResolveSQLOnFile esetében"
-
SPARK-53489 Távolítsa el a
v2ColumnsToStructTypehasználatát aApplyDefaultCollationToStringTypefájlban - SPARK-54178 A ResolveSQLOnFile hiba javítása
- SPARK-54187 Eredeti állapot visszaállítása: "[SC-211150][python][CONNECT] Az összes konfiguráció lekérése kötegelt formában a toPandas függvény segítségével"
- SPARK-53942 Visszavonás "[SC-209873][ss] Állapot nélküli shuffle partíciók módosításának támogatása a streamelési lekérdezés újraindításakor"
- SPARK-54187 Egy köteg összes konfigurációjának lekérése a toPandasban
- SPARK-54145 Beágyazott típus oszlopellenőrzésének javítása numerikus összesítésben
- SPARK-53942 Állapot nélküli shuffle partíciók módosításának támogatása a streamelési lekérdezés újraindításakor
- SPARK-53991 SQL-támogatás hozzáadása a KLL quantiles függvényekhez DataSketches (#178089) (#178234) alapján
- SPARK-53128 A nem felügyelt memória bájtok belefoglalása a használati naplóba a végrehajtási memória OOM állapot bekövetkezése előtt.
- SPARK-53731 Iterator API-k típustippjeinek frissítése
-
SPARK-53967 Kerülje a köztes pandas-adatkeretek létrehozását a következő helyen:
df.toPandas -
SPARK-53455 "[SC-208758][connect] RPC hozzáadása
CloneSession" visszavonása - SPARK-54108 A SparkConnectStatement végrehajtási* metódusainak felülvizsgálata
- SPARK-54052 Egy hídobjektum hozzáadása a Py4J korlátozás megkerülésére
- SPARK-54128 Az IllegalArgumentException átalakítása SparkException-é a megfelelő hibakategóriákkal a Spark Connect kiszolgálón
- SPARK-53880 A DSv2 javítása a PushVariantIntoScan alkalmazásban a SupportsPushDownVariants hozzáadásával
- SPARK-54111 A getCatalogs támogatásának biztosítása a SparkConnectDatabaseMetaData számára
-
SPARK-53455 RPC hozzáadása
CloneSession - SPARK-54118 A ListState üzembe helyezésének/egyesítésének javítása több érték esetén
- SPARK-54038 A getSQLKeywords támogatása a SparkConnectDatabaseMetaData számára
- SPARK-54013 SparkConnectDatabaseMetaData egyszerű metódusok implementálása
- SPARK-53934 A Connect JDBC-illesztő kezdeti implementálása
- SPARK-53959 Ügyféloldali hiba, amikor egy pandas-adatkeretből létrehoz egy adatkeretet indexel, de nincs adat
- SPARK-53573 Visszavonás "[SC-210255][sql] Sztringliterálok összevonásának engedélyezése mindenhol"
- SPARK-54094 Gyakori metódusok kiszervezése a KafkaOffsetReaderBase-be
- SPARK-53573 Sztringkonstansok egyesítésének engedélyezése mindenhol
- SPARK-54039 TaskContext-információk hozzáadása a KafkaDataConsumer kiadási() naplóihoz a jobb hibakeresés érdekében
- SPARK-54031 Új arany fájltesztek hozzáadása az elemzési peremhálózati esetekhez
-
SPARK-54067 A
SparkSubmitolyan módosítása, hogyexitFna fő okkal hívjuk meg, ahelyett, hogySparkUserAppException - SPARK-54047 Különbséghiba használata a tétlenség utáni időtúllépéskor
-
SPARK-54078 Deflake StateStoreSuite
SPARK-40492: maintenance before unload - SPARK-54061 Csavarja az IllegalArgumentException-t érvénytelen dátum/idő mintákhoz megfelelő hibakóddal.
- SPARK-54031 [SC-210084][sql] Az "Új arany fájltesztek hozzáadása az elemzési szélhelyzetekhez" visszavonása
-
SPARK-54075 Kiértékelhetővé tétele
ResolvedCollation - SPARK-54001 Memóriahasználat optimalizálása munkamenet-klónozáskor a gyorsítótárazott helyi kapcsolatok újraszámlálásával
- SPARK-54031 Új arany fájltesztek hozzáadása az elemzési peremhálózati esetekhez
-
SPARK-53923 Átnevez
spark.executor.(log -> logs).redirectConsoleOutputs -
SPARK-54007 Java használata ahelyett, hogy
Set.ofCollections.emptySet - SPARK-53755 Naplótámogatás hozzáadása a BlockManagerben
- SPARK-54041 A ParameterizedQuery argumentumok érvényesítésének refaktorálása.
- SPARK-53696 A BinaryType alapértelmezése bájtokra a PySparkban
- SPARK-53921 A GeometryType és a GeographyType bemutatása a PySpark API-ban
-
SPARK-53788 A VersionUtils áthelyezése a modulba
common - SPARK-53999 Natív KQueue Transport-támogatás BSD/MacOS rendszeren
- SPARK-54021 Földrajzi és geometriai hozzáférők implementálása a Catalystben
- SPARK-53921 Visszavon "[SC-209482][geo][PYTHON] GeometryType és GeographyType bemutatása a PySpark API-ban"
- SPARK-53920 A GeometryType és a GeographyType bemutatása a Java API-ban
- SPARK-53610 Az applyInPandas és az applyInArrow egyesítési nyíl formátumú kötegek méretének korlátozása
- SPARK-53659 Variáns feldolgozási séma következtetése Parquet formátumba való íráskor
- SPARK-53922 Fizikai geometria és földrajzi típusok bemutatása
- SPARK-54059 Csökkentse az alapértelmezett oldalméretet, ha ZGC vagy ShenandoahGC és ON_HEAP van használatban, a LONG_ARRAY_OFFSET által.
- SPARK-53921 A GeometryType és a GeographyType bemutatása a PySpark API-ban
-
SPARK-54048 Frissítés
dev/requirements.txta Python 3.14-ben való telepítésheztorch(vision) - SPARK-53917 Nagy helyi kapcsolatok támogatása
- SPARK-53760 A GeometryType és a GeographyType bemutatása
-
SPARK-53530 A
TransformWithStateInPySparkStateServer-hoz kapcsolódó felesleges kód eltávolítása - SPARK-53636 A SortShuffleManager.unregisterShuffle szálbiztonsági problémájának megoldása
- SPARK-52762 PipelineAnalysisContext üzenet hozzáadása a folyamatelemzés támogatásához a Spark Connect-lekérdezés végrehajtása során
- SPARK-53631 Memória és perf optimalizálása SHS-rendszerindításhoz
- SPARK-53857 MessageTemplate-propagálás engedélyezése a SparkThrowable-be
- SPARK-53891 Model DSV2 Commit Write Summary API
- SPARK-53966 Segédprogramfüggvények hozzáadása a JVM-tartományvezérlők észleléséhez
- SPARK-53149 Annak javítása, hogy a BeeLine-folyamat fut-e a háttérben
- SPARK-53738 Tervezett írási folyamat javítása, ha a lekérdezés kimenete egyszerűsíthető rendezéseket tartalmaz
-
SPARK-53949 Használd
Utils.getRootCausehelyettThrowables.getRootCause - SPARK-53696 Visszavonás "[SC-209330][python][CONNECT][sql] Alapértelmezett a bájtokra a BinaryType esetén PySparkban"
- SPARK-53804 A TIME radix rendezés támogatása
- SPARK-54004 A gyorsítótárból eltávolító tábla javítása név szerint kaszkádolás nélkül
-
SPARK-53261 Guava helyett Java használata
String.join|StringJoinerJoiner - SPARK-53319 Az időtípus támogatása try_make_timestamp_ltz() szerint
-
SPARK-53280 Java
instanceofhasználata metódusokThrowables.throwIf*helyett - SPARK-53696 A BinaryType alapértelmezése bájtokra a PySparkban
-
SPARK-53258 Az 's' használata
JavaUtilscheck(Argument|State) -
SPARK-53773 A szabályok betűrendes sorrendjének helyreállítása a következőben:
RuleIdCollection -
SPARK-53256
check(Argument|State)előléptetéseJavaUtilsszintre - SPARK-54008 Kihagyja a QO-t a következőhöz: DESCRIBE QUERY
- SPARK-53573 Előfeldolgozó használata általános paraméterjelölők kezeléséhez
-
SPARK-53980 API hozzáadása
SparkConf.getAllWithPrefix(String, String => K) -
SPARK-54009 Támogatás
spark.io.mode.default - SPARK-51903 Adatok ellenőrzése CHECK-kényszer hozzáadásához
- SPARK-53573 Az "[SC-209126][sql] előfeldolgozó használatának visszavonása általános paraméterjelölő-kezeléshez"
- SPARK-53573 Előfeldolgozó használata általános paraméterjelölők kezeléséhez
- SPARK-53573 Az "[SC-209126][sql] előfeldolgozó használatának visszavonása általános paraméterjelölő-kezeléshez"
- SPARK-53956 Támogatási IDŐ a PySpark try_make_timestamp függvényében
- SPARK-53930 Az IDŐ adattípus támogatása a make_timestamp függvényben a PySpark-ben
- SPARK-53573 Előfeldolgozó használata általános paraméterjelölők kezeléséhez
- SPARK-53564 A DAGScheduler kilépésének elkerülése a BlockManager RPC időtúllépése miatt a DAGSchedulerEventProcessLoopban.
-
SPARK-53879 Frissítés
Ammonitea 3.0.3-ra - SPARK-53938 Decimális újraszámítás javítása a LocalDataToArrowConversion alkalmazásban
- SPARK-53845 SDP-elnyelők
- SPARK-53908 Megfigyelések javítása a Spark Connecten a terv gyorsítótárral
-
SPARK-53841 Implementálás
transform()a Column API-ban - SPARK-53929 Idő támogatása a make_timestamp és try_make_timestamp Scala függvényekben
-
SPARK-53902 Facsomópont-mintabitek hozzáadása támogatott kifejezésekhez az
ParameterizedQueryargumentumlistában - SPARK-53064 MDC LogKey átírása Java-ban
- SPARK-53762 Dátum- és időkonverziók egyszerűsített szabályának hozzáadása az optimalizálóhoz
- SPARK-53916 A változók deduplikálása a PythonArrowInputban
- SPARK-53690 Az avgOffsetsBehindLatest és a estimatedTotalBytesBehindLatest exponenciális formázásának javítása a Folyamatban lévő Kafka-források objektumában json
- SPARK-53789 A hibafeltétel CANNOT_MODIFY_STATIC_CONFIG szabványosítása
- SPARK-53720 Tábla kinyerése a DataSourceV2Relation szolgáltatásból (#52460)
-
SPARK-45530 Használja
java.lang.ref.CleanerafinalizehelyettNioBufferedFileInputStream. - SPARK-53789 Visszavonás: "[SC-208902][sql][CONNECT] Kanonizálási hiba feltétel CANNOT_MODIFY_STATIC_CONFIG"
- SPARK-53789 A hibafeltétel CANNOT_MODIFY_STATIC_CONFIG szabványosítása
- SPARK-53111 A time_diff függvény implementálása a PySparkban
-
SPARK-53896 Engedélyezés
spark.io.compression.lzf.parallel.enabledalapértelmezés szerint - SPARK-53856 Alternatív konfigurációnevek eltávolítása
- SPARK-53611 Az Arrow kötegméretének korlátozása a window agg UDF-kben
- SPARK-53575 A fogyasztói szakaszok teljes újrapróbálása, ha az ellenőrzőösszeg eltérését észlelik egy újrapróbált shuffle map feladatnál
- SPARK-53867 Az Arrow csomagméreteinek korlátozása a SQL_GROUPED_AGG_ARROW_UDF-ben
- SPARK-53877 BITMAP_AND_AGG függvény bemutatása
- SPARK-51426 'A metaadatok üres szótárra állítása nem működik'
- SPARK-53868 Tömbhossz-ellenőrzés használata közvetlen referencia-ellenőrzés helyett a V2ExpressionBuilderben
- SPARK-53609 Az Arrow adatcsomag méretének korlátozása a SQL_GROUPED_AGG_PANDAS_UDF-ben
-
SPARK-53892 Használat
DescribeTopicsResult.allTopicNamesaz elavultallAPI helyett - SPARK-53878 A ObservedMetrics versenyállapotával kapcsolatos probléma javítása
-
SPARK-53796 Mező hozzáadása
extensionnéhány folyamat-protoshoz a továbbítási kompatibilitás támogatásához - SPARK-53850 Sink-ek protojának definiálása és a DefineDataset átnevezése DefineOutput-ra
- SPARK-53812 A DefineDataset és DefineFlow protok összevont újratervezése a kapcsolódó tulajdonságok csoportosítása és jövőbeli rugalmasság érdekében.
- SPARK-53870 Kijavítottuk a nagyméretű proto-üzenetek részleges olvasási hibáját a TransformWithStateInPySparkStateServerben
- SPARK-53751 Kifejezetten verziózott ellenőrzőpont helyszín
- SPARK-52407 A Theta Sketch (#171135) támogatásának hozzáadása
-
SPARK-53779 Implementálás
transform()a Column API-ban -
SPARK-49547 API iterátorának
RecordBatchhozzáadása aapplyInArrow - SPARK-53802 A felhasználó által megadott séma sztringértékeinek támogatása SDP-táblákban
- SPARK-53865 Gyakori logika kinyerése a ResolveGenerate szabályból
- SPARK-53113 Az időtípus támogatása try_make_timestamp() szerint
-
SPARK-53868 Csak a V2ExpressionSQBuilder kifejezéssel[]
visitAggregateFunctionrendelkező aláírás használata - SPARK-53792 Kijavítja a rocksdbPinnedBlocksMemoryUsage hibát korlátozott memóriahasználat esetén.
-
SPARK-53248 Támogatás a következőben
checkedCast:JavaUtils - SPARK-52640 Python-forráskód helyének propagálása
- SPARK-52924 A ZSTD_strategy támogatása tömörítéshez
- SPARK-53562 "[SC-207233][python] Az Arrow kötegméreteinek korlátozása az applyInArrow és az applyInPandas alkalmazásban"
- SPARK-51272 A ResubmitFailedStages helyett a részlegesen befejezett, határozatlan eredményű szakasz megszakítása.
- SPARK-53795 A Nem használt paraméterek eltávolítása a LiteralValueProtoConverterben
-
SPARK-53808 Az opcionális JVM-argek átadásának engedélyezése
spark-connect-scala-client - SPARK-52614 A RowEncoder támogatása a Product Encoderben
-
SPARK-53833 Frissítés
dev/requirements.txta kihagyáshoztorch/torchvisiona Python 3.14-ben - SPARK-53715 Refactor getWritePrivileges a MergeIntoTable-ben
-
SPARK-53516 Az arg-folyamat javítása
spark.api.modea SparkPipelinesben - SPARK-53507 Ne használjon esetosztályt a BreakingChangeInfo-hoz
-
SPARK-53645 A ps paraméter implementálása
skipna. DataFrameany() -
SPARK-53717 A paraméter megjegyzésének helyesebb módosítása
MapType.valueContainsNull -
SPARK-53700 Redundancia eltávolítása a következőben:
DataSourceV2RelationBase.simpleString - SPARK-53667 Javítás a CALL-hez tartozó EXPLAIN részhez a következővel: IDENTIFIER
-
SPARK-53562 Az "[SC-207233][python] Arrow kötegméretek
applyInArrowésapplyInPandaskorlátozásának visszaállítása" - SPARK-51169 Python 3.14-támogatás hozzáadása a Klasszikus Sparkban
-
SPARK-53562 Az Apache Arrow batch méretek korlátozása
applyInArrowésapplyInPandas - SPARK-53806 Az AES-visszafejtés üres bemenetének engedélyezése hibaosztály megadásával
- SPARK-51756 RowBasedChecksum számítása a ShuffleWriters-ben
- SPARK-52807 Proto-módosítások a Deklaratív folyamatok lekérdezési függvényeken belüli elemzés támogatásához
- SPARK-53728 PipelineEvent üzenet nyomtatása hiba esetén a teszt során
- SPARK-53207 Folyamatesemény küldése az ügyfélnek aszinkron módon
-
SPARK-53829
datetime.timetámogatása az oszlopoperátorokban - SPARK-53638 A TWS-hez tartozó nyílköteg bájtméretének korlátozása az OOM elkerülése érdekében
- SPARK-53593 Javítás: Idézőjelek nélküli használat a válaszmezőkhöz
- SPARK-53734 Táblázatoszlop előnyben részesítése az LCA-val szemben a tömbindex feloldásakor
- SPARK-53593 Válaszmező hozzáadása a DefineDatasethez és a DefineFlow RPC-hez
- SPARK-53734 Visszaállítás "[SC-207697][sql] A táblák oszlopainak előnyben részesítése az LCA-val szemben a tömbindex feloldásakor"
- SPARK-53621 Támogatás hozzáadása a CONTINUE HANDLER végrehajtásához
- SPARK-53734 Táblázatoszlop előnyben részesítése az LCA-val szemben a tömbindex feloldásakor
- SPARK-53507 Kompatibilitástörő változásadatok hozzáadása hibákhoz
- SPARK-53707 Az attribútum metaadatainak kezelése.
- SPARK-53629 Típusszűkítés implementálása a WITH MERGE INTO EVOLUTION-hez SCHEMA
-
SPARK-53719 Típusellenőrzés javítása a függvényben
_to_col - SPARK-53735 Kiszolgálóoldali JVM-verem nyomkövetésének elrejtése alapértelmezés szerint a Spark-Pipelines kimenetében
- SPARK-53651 Folyamatos nézetek támogatásának hozzáadása a csővezetékekhez
- SPARK-53678 Az NPE javítása a ColumnVector alosztály null DataType használatával történő létrehozásakor
- SPARK-46679 Javítás a SparkUnsupportedOperationException esetében Nem található T típusú kódoló paraméteres osztály használatakor
- SPARK-53444 Átdolgozás azonnali újramunkálás végrehajtása azonnal
- SPARK-53578 Adattípus-kezelés egyszerűsítése a LiteralValueProtoConverterben
- SPARK-53438 Használja a CatalystConvertert a LiteralExpressionProtoConverterben
- SPARK-53444 "[SC-206535][sql][CORE] Az újramunkálás azonnali újramunkálást hajt végre azonnal"
- SPARK-53444 Átdolgozás azonnali újramunkálás végrehajtása azonnal
- SPARK-53112 Támogatási IDŐ a PySpark make_timestamp_ntz és try_make_timestamp_ntz függvényeiben
- SPARK-53492 Utasítsa el a második ExecutePlan-t, ha egy már befejezett műveletazonosítóval rendelkezik
- SPARK-52772 Goldfájlok előre javítása
- SPARK-53591 Folyamatspecifikációs minta Glob-egyeztetésének egyszerűsítése
- SPARK-53553 Null értékek kezelésének javítása a LiteralValueProtoConverterben
- SPARK-52772 Inkonzisztens táblaattribútumok kezelése a frissítések során
- SPARK-53544 A megfigyelések összetett típusainak támogatása
-
SPARK-53357 Frissítés
pandasa 2.3.2-hez - SPARK-53402 A Direct Passthrough Partitioning Dataset API támogatása Spark Connectben Scalához
- SPARK-53372 SDP– végpontok közötti tesztelési csomag
- SPARK-53402 Az "[SC-206163][connect] Közvetlen átengedéses particionálási adathalmaz API támogatásának visszavonása a Spark Connectben Scálában"
- SPARK-53402 A Direct Passthrough Partitioning Dataset API támogatása Spark Connectben Scalához
-
SPARK-53233 A megfelelő csomagnév használatával kapcsolatos
streamingkód létrehozása - SPARK-53233 Vonja vissza a "[SC-203716][sql][SS][mllib][CONNECT] Kód összetétele a megfelelő csomagnév használatának biztosítása érdekében" változtatást
-
SPARK-53233 A megfelelő csomagnév használatával kapcsolatos
streamingkód létrehozása - SPARK-53561 Megszakítási kivételt felfogni a TransformWithStateInPySparkStateServerben az outputStream.flush hívásakor a feldolgozó összeomlásának elkerülése érdekében.
-
SPARK-53486 Kerülje el a beállítást a torch modell betöltésekor
weights_only=False - SPARK-53391 A nem használt PrimitiveKeyOpenHashMap eltávolítása
- SPARK-52431 Befejező simítások a Deklaratív modulok futtatóján
- SPARK-52980 Arrow Python UDTF-ek támogatása
- SPARK-53453 A "fáklya<2.6.0" blokkolásának feloldása
- SPARK-52582 "[SC-199314][sc-204581][SQL] Az XML-elemző memóriahasználatának javítása"
- SPARK-52582 Visszavonni "[SC-199314][sc-204581][SQL] Az XML-elemző memóriahasználatának javítását"
- SPARK-52582 Az XML-elemző memóriahasználatának javítása
- SPARK-51906 Az alter tábla Dsv2-kifejezései oszlopokat adnak hozzá
-
SPARK-53150 Fejlesztés
list(File|Path)sa nem létező, nem címtár alapú, szimlink bemenetek kezeléséhez -
SPARK-53091 Tilalom
org.apache.commons.lang3.Strings - SPARK-52844 Numpy frissítése 1.22-re
-
SPARK-52912 Javítás
SparkStringUtilsa támogatás érdekébenis(Not)?(Blank|Empty) - SPARK-52877 A Python UDF-nyíl szerializáló teljesítményének javítása
- SPARK-52877 "[SC-201914][python] A Python UDF nyíl szerializáló teljesítményének javítása"
- SPARK-52238 Python-ügyfél deklaratív folyamatokhoz
- SPARK-52877 A Python UDF-nyíl szerializáló teljesítményének javítása
- SPARK-53287 ANSI migrálási útmutató hozzáadása
- SPARK-52110 SQL-szintaxis támogatása folyamatokhoz
-
SPARK-52897 Frissítés
pandasa 2.3.1-hez - SPARK-52451 Visszavon "[SC-202894][connect][SQL] Tegye a WriteOperation mellékhatásmentessé a SparkConnectPlannernél"
- SPARK-52976 Kijavítottuk, hogy a Python UDF nem fogadja el az összeválogatott sztringet bemeneti paraméterként/visszatérési típusként
- SPARK-52904 A convertToArrowArraySafely engedélyezése alapértelmezés szerint
- SPARK-52821 add int-DecimalType> pyspark udf return type coercion
- SPARK-52971 Inaktív Python-feldolgozói üzenetsor méretének korlátozása
- SPARK-53013 A nyíloptimalizált Python UDTF javítása, amely nem ad vissza sorokat az oldalirányú illesztéskor
- SPARK-51834 OSS szinkronizálása: a végpontok közötti táblamegkötés támogatása alter add/drop constraint
- SPARK-52675 A függő ML-kezelők megszakítása a tesztekben
- SPARK-52959 UDT támogatása a Nyíloptimalizált Python UDTF-ben
- SPARK-52961 Nyíloptimalizált Python UDTF javítása 0-arg eval oldalirányú illesztéssel
- SPARK-52949 A RecordBatch és a Table közötti fordulóutazás elkerülése Arrow-optimalizált Python UDTF-ben
- SPARK-52946 A nyíloptimalizált Python UDTF javítása a nagy vartípusok támogatásához
- SPARK-52934 Skaláris értékek lehetővé tétele az Arrow-optimalizált Python UDTF használatával
- SPARK-52861 Sorobjektum létrehozásának kihagyása a nyíloptimalizált UDTF-végrehajtásban
- SPARK-51834 Az OSS-támogatás szinkronizálása a végpontok közötti létrehozási/cseretáblázatok korlátozásával
- SPARK-44856 A Python UDTF nyílszerializáló teljesítményének javítása
- SPARK-51834 "[SQL] A TableSpec javítása konstruktor hozzáadásával"
- SPARK-51834 A TableSpec javítása konstruktor hozzáadásával
- SPARK-51834 "[SQL] OsS szinkronizálása (részleges): Teljes körű táblamegkötés támogatása a tábla létrehozása/cseréje során"
- SPARK-51834 OSS szinkronizálása (részleges): A teljes körű táblamegkötés támogatása a tábla létrehozása/cseréje során
- SPARK-52885 Az óra, a perc és a második függvény implementálása a Scalában az IDŐ típushoz
- SPARK-51834 OsS-frissítés szinkronizálása – A ResolvedIdentifier alkalmazás nélküli hívásai
- SPARK-44856 "[SC-195808][python] A Python UDTF nyílszerializáló teljesítményének javítása"
- SPARK-51834 Az "[SQL] Sync OSS update ResolvedIdentifier unapply calls" frissítésének visszavonása
- SPARK-44856 A Python UDTF nyílszerializáló teljesítményének javítása
- SPARK-51834 OsS-frissítés szinkronizálása – A ResolvedIdentifier alkalmazás nélküli hívásai
- SPARK-52787 Streamelési végrehajtási dir átrendezése a futtatókörnyezet és az ellenőrzőpont területei körül
- SPARK-51695 OsS create/replace/alter table szinkronizálása egyedi kényszerhez a DSv2-n keresztül
- SPARK-51695 OSS-es esési kényszer szinkronizálása a DSv2-n keresztül
- SPARK-51695 Elemzési módosítások bevezetése a táblakorlátozásokhoz (CHECK, PK, FK)
- SPARK-51695 "Visszavonás: [SQL] A táblamegkötések elemző módosításainak bevezetése (CHECK, PK, FK)"
- SPARK-51695 Elemzési módosítások bevezetése a táblakorlátozásokhoz (CHECK, PK, FK)
- SPARK-49428 Scala Connect kliens áthelyezése a Connectorból az SQL-be
-
SPARK-52422 Frissítés
pandasa 2.3.0-ra - SPARK-52228 Az állapotállapot-interakció mikró-benchmark integrálása a Quicksilver rendszerébe (TCP)
- SPARK-52300 Az SQL UDTVF felbontásának konzisztens konfigurációk használata nézetfeloldással
- SPARK-52228 A teljesítménymutató célú TWS állapotkiszolgáló szerver létrehozása memóriában tárolt állapotimplementációkkal és a benchmark kód pythonban
-
SPARK-52174 Engedélyezés
spark.checkpoint.compressalapértelmezés szerint - SPARK-52224 Pyyaml bevezetése függőségként a Python-ügyfélhez
- SPARK-52122 DefaultParamsReader RCE biztonsági rés javítása
- SPARK-51147 A streameléssel kapcsolatos osztályok újrabontása dedikált streamkönyvtárba
- SPARK-51789 A spark.api.mode és a spark.remote megfelelő tiszteletben tartása az argumentumok Spark-beküldésben történő elemzésekor
- SPARK-51212 Külön PySpark-csomag hozzáadása a Spark Connecthez alapértelmezés szerint
- SPARK-50762 Elemzési szabály hozzáadása az SQL skaláris UDF-ek feloldásához
-
SPARK-49748
getConditionhozzáadása ésgetErrorClasselavulttá tétele a következőben:SparkThrowable - SPARK-50605 Sql API mód támogatása a Spark Connectre való könnyebb migráláshoz
- SPARK-50458 A nem támogatott fájlrendszer megfelelő hibakezelése fájlok olvasásakor
- SPARK-49700 Egységes Scala-interfész a Connecthez és a Classichoz
- SPARK-51779 Virtuális oszlopcsaládok használata stream-stream illesztésekhez
-
SPARK-51820 Az építés áthelyezése
UnresolvedOrdinalelemzés előtt a rendezési sorrend szerinti csoportosítással kapcsolatos problémák elkerülése érdekében. -
SPARK-51814 Új API
transformWithStatebevezetése a PySparkban - SPARK-51635 PushProjectionThroughLimit és PushProjectionThroughOffset egyesítése
-
SPARK-51165 Engedélyezés
spark.master.rest.enabledalapértelmezés szerint - SPARK-51688 Unix Domain Socket használata Python és JVM-kommunikáció között
- SPARK-51503 Variant típus támogatása az XML-vizsgálatban
-
SPARK-50564 Python-csomag frissítése
protobuf5.29.1-re - SPARK-50359 A PyArrow frissítése 18.0-ra
- SPARK-51340 Modellméret becslése
-
SPARK-50657 Frissítse a minimális verziót
pyarrowa 11.0.0-ra - SPARK-49282 Hozzon létre egy megosztott SparkSessionBuilder felületet.
- SPARK-51371 Változtassa meg az Aliases építésekor a toString-ról toPrettySQL-re a ResolveAggregateFunctionsben.
- SPARK-50694 Támogatás átnevezésre alkérdezésekben
- SPARK-50601 "[SC-186342][sql] Támogatás visszavonása a withColumns / withColumnsRenamed funkciókra a lekérdezésekben"
- SPARK-50601 Támogatás a withColumns / withColumnsRenamed használatára az al-lekérdezésekben
Az Azure Databricks ODBC/JDBC-illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Karbantartási frissítések
Lásd a Databricks Runtime karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.0.0
Telepített Python-kódtárak
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| annotált dokumentum | 0.0.3 | széljegyzetes típusok | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| nyíl | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| Aszinkron-LRU | 2.0.4 | attribútumok | 24.3.0 | automatikus parancs | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web (web kezelési modul az Azure-hoz) | 8.0.0 | Azure-tároló-blob | 12.28.0 |
| Azure-tároló-fájl-adattó (Azure Storage File Data Lake) | 12.22.0 | babel | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | fekete | 24.10.0 | fehérítő | 6.2.0 |
| villogó | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| Gyorstár-eszközök | 5.5.1 | tanúsítvány | 2025.4.26 | cffi | 1.17.1 |
| Chardet | 4.0.0 | karakterkészlet-normalizáló (charset-normalizer) | 3.3.2 | kattintás | 8.1.8 |
| Cloudpickle | 3.0.0 | kommunikáció | 0.2.1 | ContourPy | 1.3.1 |
| kriptográfia | 44.0.1 | biciklista | 0.11.0 | Cython | 3.1.5 |
| databricks-ügynökök | 1.4.0 | databricks-connect | 17.3.1 | databricks SDK | 0.67.0 |
| adat osztályok JSON-hoz | 0.6.7 | dbus-python | 1.3.2 | debugpy hibakereső eszköz | 1.8.11 |
| dekorátor | 5.1.1 | defusedxml | 0.7.1 | deltalake | 1.1.4 |
| Deprecated | 1.2.18 | distlib | 0.3.9 | docstring Markdown-formátummá alakítása | 0.11 |
| Végrehajtó | 1.2.0 | aspektusok áttekintése | 1.1.1 | fastapi | 0.128.0 |
| fastjsonschema | 2.21.1 | fájlzárolás | 3.17.0 | betűtípusok | 4.55.3 |
| FQDN | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | Google-autentikáció | 2.47.0 |
| google-cloud-core (Google felhő mag) | 2.5.0 | Google felhőtárhely | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media (Google újraindítható média) | 2.8.0 | googleapis-közös-protokollok | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | httpcore | 1.0.9 |
| httplib2 | 0.20.4 | httpx | 0.28.1 | Idna | 3.7 |
| importlib-metadata | 6.6.0 | ragoz | 7.3.1 | iniconfig | 1.1.1 |
| ipyflow-core | 0.0.209 | ipykernel | 6.29.5 | ipython | 8.30.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 | izodátum | 0.7.2 |
| izoduráció | 20.11.0 | jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | jedi | 0.19.2 |
| Jinja2 | 3.1.6 | rezgés | 0.11.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | json5 | 0.9.25 | jsonpatch | 1.33 |
| jsonpointer | 3.0.0 | jsonschema | 4.23.0 | jsonschema-specifikációk | 2023.07.01. |
| jupyter-események | 0.12.0 | jupyter-lsp | 2.2.5 | jupyter_kliens | 8.6.3 |
| jupyter_core | 5.7.2 | jupyter_server (Jupyter kiszolgáló) | 2.15.0 | jupyter szerver terminálok | 0.5.3 |
| jupyterlab | 4.3.4 | jupyterlab_pygments | 0.3.0 | jupyterlab_szerver | 2.27.3 |
| jupyterlab_widgets | 1.1.11 | kiwisolver | 1.4.8 | langchain-core | 1.0.3 |
| langchain-openai | 1.0.2 | langsmith | 0.4.41 | launchpadlib | 1.11.0 |
| lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | mályvacukor | 3.26.1 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| félhangol | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-kiterjesztések | 1.3.1 |
| mypy kiterjesztések | 1.0.0 | nbclient | 0.10.2 | nbconvert | 7.16.6 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.10.0 |
| jegyzetfüzet | 7.3.2 | notebook-shim | 0.2.4 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | openai | 2.7.1 | opentelemetry-api | 1.39.1 |
| opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.38.0 | opentelemetry-szemantikai-konvenciók | 0.60b1 |
| orjson | 3.11.4 | Felülbírálja | 7.4.0 | csomagolás | 24,2 |
| Pandák | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| útvonal specifikáció (pathspec) | 0.10.3 | bűnbak | 1.0.1 | pexpect | 4.8.0 |
| párna | 11.1.0 | pipa | 25.0.1 | Platformdirs | 4.3.7 |
| ábrázolás | 5.24.1 | csatlakozós | 1.5.0 | prometheus_client | 0.21.1 |
| prompt-toolkit: parancssori eszközkészlet | 3.0.43 | proto-plus | 1.27.0 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.11 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | py4j | 0.10.9.9 | pyarrow | 21.0.0 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 |
| pycparser (C és C++ fájlok feldolgozására szolgáló parser) | 2.21 | pydantic (egy Python könyvtár) | 2.10.6 | pydantic_core | 2.27.2 |
| pyflakes (egy program vagy eszköz neve) | 3.2.0 | Pygments | 2.19.1 | PyGObject | 3.48.2 |
| pyiceberg | 0.10.0 | PyJWT | 2.10.1 | pyodbc (Python ODBC interfész) | 5.2.0 |
| pyparsing (egy Python könyvtár a szövegelemzéshez) | 3.2.0 | pyright | 1.1.394 | piroaring | 1.0.3 |
| pytest | 8.3.5 | python-dateutil | Szoftver verzió: 2.9.0.post0 | python-dotenv | 1.2.1 |
| Python JSON naplózó | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.2 |
| pytool konfiguráció | 1.2.6 | pytz (egy Python könyvtár az időzóna számításokhoz) | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Hivatkozás | 0.30.2 | reguláris kifejezés | 2024.11.6 |
| requests | 2.32.3 | requests-eszközkészlet | 1.0.0 | rfc3339-validator | 0.1.4 |
| RFC3986-érvényesítő | 0.1.1 | gazdag | 13.9.4 | kötél | 1.13.0 |
| rpds-py | 0.22.3 | Rsa | 4.9.1 | s3transfer | 0.14.0 |
| scikit-learn (egy Python gépi tanulási könyvtár) | 1.6.1 | scipy (tudományos és műszaki számítási Python könyvtár) | 1.15.3 | tengerben született | 0.13.2 |
| Send2Trash | 1.8.2 | setuptools | 78.1.1 | hat | 1.17.0 |
| smmap | 5.0.0 | sniffio | 1.3.0 | sortedcontainers | 2.4.0 |
| levesszűrő | 2.5 | sqlparse | 0.5.5 | ssh-import-id | 5.11 |
| halmaz adatok | 0.6.3 | Starlette | 0.50.0 | strictyaml | 1.7.3 |
| Kitartás | 9.0.0 | befejezett | 0.17.1 | threadpoolctl | 3.5.0 |
| tiktoken | 0.12.0 | tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 |
| tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | típusőrző | 4.3.0 | types-python-dateutil | 2.9.0.20251115 |
| gépelés ellenőrzése | 0.9.0 | typing_extensions (gépelési kiterjesztések) | 4.12.2 | tzdata | 2024.1 |
| ujson (JSON-kezelő könyvtár a Pythonban) | 5.10.0 | felügyelet nélküli frissítések | 0,1 | uri-sablon | 1.3.0 |
| urllib3 | 2.3.0 | uvicorn | 0.38.0 | virtualenv | 20.29.3 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | webszínek | 25.10.0 |
| webkódolások | 0.5.1 | websocket-klient | 1.8.0 | Mi a javítás? | 1.0.2 |
| wheel | 0.45.1 | akármikor | 0.7.3 | widgetsnbextension | 3.6.6 |
| becsomagolva | 1.17.0 | yapf | 0.40.2 | cipzár | 3.21.0 |
| zstandard | 0.23.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2025-11-20-án.
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| nyíl | 22.0.0 | jelszókérés | 1.2.1 | Meggyőződj arról, hogy | 0.2.1 |
| háttérportolások | 1.5.0 | alapkép | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | boot - rendszerindítás | 1.3-30 |
| sört főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.10 |
| bslib | 0.9.0 | gyorsítótár | 1.1.0 | hívásindító | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | kronométer | 2.3-62 |
| osztály | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| óra | 0.7.3 | fürt | 2.1.6 | kódolási eszközök | 0.2-20 |
| commonmark | 2.0.0 | fordítóprogram | 4.5.1 | config | 0.3.2 |
| ellentmondásos | 1.2.0 | cpp11 | 0.5.2 | crayon | 1.5.3 |
| azonosító adatok | 2.0.3 | göndörít | 7.0.0 | adat.táblázat | 1.17.8 |
| adatkészletek | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| Leírás | 1.4.3 | devtools | 2.4.6 | diagram | 1.6.5 |
| diffobj | 0.3.6 | kivonat | 0.6.39 | lefelé irányított világítású | 0.4.5 |
| dplyr (adatmanipulációs csomag az R programozási nyelvhez) | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| három pont | 0.3.2 | kiértékel | 1.0.5 | rajongók | 1.0.7 |
| színek | 2.1.2 | gyorstérkép | 1.2.0 | fontawesome | 0.5.3 |
| elveszettek | 1.0.1 | foreach | 1.5.2 | külföldi | 0.8-86 |
| fs | 1.6.6 | jövő | 1.68.0 | jövő.alkalmaz | 1.20.0 |
| gargarizál | 1.6.0 | általánosítás | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globálisok | 0.18.0 |
| ragasztó | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower-hegység | 1.0.2 | grafika | 4.5.1 | grDevices | 4.5.1 |
| rács | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | védősisak | 1.4.2 |
| kikötő | 2.5.5 | magasabb | 0.11 | HMS | 1.1.4 |
| HTML-eszközök | 0.5.8.1 | HTML-widgetek | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | Azonosítók | 1.0.1 |
| ini | 0.3.1 | iPred | 0.9-15 | izoband | 0.2.7 |
| iterátorok | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1,50 |
| címkézés | 0.4.3 | később | 1.4.4 | rácsszerkezet | 0.22-5 |
| láva | 1.8.2 | életciklus | 1.0.4 | hallgatás | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Markdown | 2.0 | Tömeg | 7.3-60.0.1 | Mátrix | 1.6-5 |
| memorizálás | 2.0.1 | módszerek | 4.5.1 | mgcv | 1.9-1 |
| pantomimázás | 0,13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modellező | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | „numDeriv” | 2016. augusztus - 1.1 | openssl (nyílt forráskódú titkosító szoftver) | 2.3.4 |
| otel | 0.2.0 | párhuzamos | 4.5.1 | párhuzamosan | 1.45.1 |
| pillér | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | csomag betöltése | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | dicséret | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | Processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | haladás | 1.2.3 | progressr | 0.18.0 |
| ígéretek | 1.5.0 | Próto | 1.0.0 | közvetít | 0.4-27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | véletlen erdő (randomForest) | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer (egy szoftvercsomag neve) | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | reakcióképes | 0.4.4 | reactR | 0.6.1 |
| Readr | 2.1.6 | readxl (Excel fájlokat olvasó programcsomag) | 1.4.5 | Receptek | 1.3.1 |
| Visszavágó | 2.0.0 | visszavágó2 | 2.1.2 | Távvezérlők | 2.5.0 |
| megismételhető példa | 2.1.1 | újraformázás2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | változatok | 3.0.0 |
| Szüret | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| mérlegek | 1.4.0 | szelekciós eszköz | 0.4-2 | munkamenet-információk | 1.2.3 |
| alakzat | 1.4.6.1 | Fényes | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| térbeli | 7.3-17 | splinek | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statisztika | 4.5.1 | statisztikák4 | 4.5.1 |
| string | 1.8.7 | stringr | 1.6.0 | túlélés | 3.5-8 |
| magabiztosság | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| Tcl/Tk programozási nyelv és eszközkészlet. | 4.5.1 | testthat | 3.3.0 | szövegformázás | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | időváltás | 0.3.0 | idődátum | 4051.111 |
| tinytex | 0.58 | eszközök | 4.5.1 | tzdb | 0.5.0 |
| URL-ellenőrző | 1.0.1 | ezt használd | 3.2.1 | utf8 | 1.2.6 |
| segédprogramok | 4.5.1 | univerzálisan egyedi azonosító (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | bruum | 1.6.6 |
| Waldo | 0.6.2 | szőrszál | 0.4.1 | valamivel | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML (adat-szerializációs formátum) | 2.3.10 | zeallot | 0.2.0 |
| zip fájl | 2.3.3 |
Telepített Java- és Scala-kódtárak (Scala 2.13 klaszterverzió)
| Csoportazonosító | A tárgy azonosítója | verzió |
|---|---|---|
| ANTLR (Egy másik eszköz a nyelvi felismeréshez) | ANTLR (Egy másik eszköz a nyelvi felismeréshez) | 2.7.7 |
| com.amazonaws | Amazon Kinesis kliens | 1.15.3 |
| com.amazonaws | AWS Java SDK - Automatikus Skálázás | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | aws-java-sdk-config (AWS Java SDK konfiguráció) | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | AWS Java SDK importexport modul | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms (Amazon Web Services Java SDK KMS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs | 1.12.681 |
| com.amazonaws | aws-java-sdk-gépi tanulás | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | AWS Java SDK Támogatás | 1.12.681 |
| com.amazonaws | aws-java-sdk-munkaterületek | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | adatfolyam | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java (Databricks Java SDK) | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-árnyékolt | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | osztálytárs | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotációk | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (adatformátum CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson adattípus - Joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1-őslakosok |
| com.github.fommil.netlib | natív rendszer-java | 1.1 |
| com.github.fommil.netlib | natív rendszer-java | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-natív_rendszer-linux-x86_64 | 1.1-őslakosok |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-hitelesítési-könyvtár-azonosítók (google-auth-library-credentials) | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | automatikus érték-annotációk | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | hibára hajlamos annotációk | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | hozzáférési hiba | 1.0.3 |
| com.google.guava | guáva | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profilkészítő | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | forráskód_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (kompressziós algoritmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl (JAXB implementáció) | 2.2.11 |
| com.tdunning | JSON formátum | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lencsék_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-elemzők | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| „commons-codec” | „commons-codec” | 1.19.0 |
| commons-collections (közös gyűjtemények könyvtár) | commons-collections (közös gyűjtemények könyvtár) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-fájlfeltöltés | Commons-fájlfeltöltés | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| közös naplózás | közös naplózás | 1.1.3 |
| közös medence | közös medence | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | Blas | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | légkompresszor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.6 |
| io.dropwizard.metrics | metrikák annotációja | 4.2.37 |
| io.dropwizard.metrics | metrikai magrész | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | mutatók-egészségügyi ellenőrzések | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.37 |
| io.dropwizard.metrics | metrics-json (metrikák JSON formátumban) | 4.2.37 |
| io.dropwizard.metrics | JVM-metrikák | 4.2.37 |
| io.dropwizard.metrics | Metrikai szervletek | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all csomag | 4.2.7.Final |
| io.netty | Netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | Netty HTTP kodek | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-zokni | 4.2.7.Final |
| io.netty | netty-közös | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-osztályok | 2.0.74.Final |
| io.netty | Netty-transport | 4.2.7.Final |
| io.netty | netty-szállítási-osztályok-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | Netty szállítási osztályok - kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (Unix-alapú közös natív szállítás) | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_általános | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway (egyszerű kliens tolókapu) | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | egyszerűgaming_kliens_szervlet_általános | 0.16.1-databricks |
| io.prometheus | egyszerű kliens nyomkövető közös | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_nyomkövető_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | gyűjtő | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktiválás | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | savanyított zöldség | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv (egy CSV-fájlokat kezelő könyvtár) | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-szoftverfejlesztőkészlet (SDK) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | TávoliTea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | karakterláncsablon | 3.2.1 |
| org.apache.ant | hangya | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | nyíl-sűrítés | 18.3.0 |
| org.apache.arrow | nyíl alakú formátum | 18.3.0 |
| org.apache.arrow | nyíl memóriaegység | 18.3.0 |
| org.apache.arrow | Arrow-Memória-Netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-korrekció | 18.3.0 |
| org.apache.arrow | irányvektor | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-kollekciók4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (közös szöveg) | 1.14.0 |
| org.apache.curator | kurátor-ügyfél | 5.9.0 |
| org.apache.curator | kurátor-keretrendszer | 5.9.0 |
| org.apache.curator | receptek kurátortól | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | adatvázlatok-memória | 3.0.2 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop kliens futásideje | 3.4.2 |
| org.apache.hive | hive-beeline (eszköz) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-kliens | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde (sorozatok és deserializáció) | 2.3.10 |
| org.apache.hive | hive-shims (hive kiegészítő modulok) | 2.3.10 |
| org.apache.hive | hive-storage-api (hive tárolási API) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler (méhkas-behúzási-ütemező) | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | borostyánkő | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-elrendezés-sablon-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-formátum | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-illesztékek | 2.2.0 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0,9,3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | célközönség megjegyzései | 0.13.0 |
| org.apache.zookeeper | állatkerti gondozó | 3.9.4 |
| org.apache.zookeeper | zookeeper-jute | 3.9.4 |
| org.checkerframework | ellenőr-képzettség | 3.43.0 |
| org.codehaus.janino | közösségi fordítóprogram | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http (egy Java HTTP szerver implementáció) | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty Plus | 10.0.26 |
| org.eclipse.jetty | jetty proxy | 10.0.26 |
| org.eclipse.jetty | jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) | 10.0.26 |
| org.eclipse.jetty | Jetty webszerver | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | Jetty webalkalmazás | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi erőforrás-kereső | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-újracsomagolt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (Jersey konténer szervlet) | 2.41. |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41. |
| org.glassfish.jersey.core | jersey-ügyfél | 2.41. |
| org.glassfish.jersey.core | jersey-közös | 2.41. |
| org.glassfish.jersey.core | jersey-szerver | 2.41. |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41. |
| org.hibernate.validator | hibernate-validator (a Hibernate hitelesítő) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (naplózó rendszer) | 3.4.1.Végleges |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | teszt-interfész | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest tesztelési keretrendszerrel kompatibilis | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl (nyílt forráskódú szoftver) | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Jótanács
Ha szeretné látni azoknak a Databricks Runtime-verzióknak a kiadási megjegyzéseit, amelyek elérték a támogatás megszűnését (EoS), tekintse meg a Támogatás megszűnéséhez kapcsolódó Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.