Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Megjegyzés:
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. A támogatott Databricks Runtime-verziók teljes listáját lásd a Databricks Runtime kiadási megjegyzések: változatok és kompatibilitás oldalon.
Az alábbi kibocsátási megjegyzések az Apache Spark 4.0.0 által üzemeltetett Databricks Runtime 17.0-ról nyújtanak információkat.
A Databricks 2025 júniusában adta ki ezt a verziót.
Új funkciók és fejlesztések
- Mostantól a SparkML a standard fürtökön támogatott
- SQL-eljárás támogatása
- Alapértelmezett rendezés beállítása az SQL Functionshez
- Rekurzív gyakori táblakifejezések (nyilvános előzetes verzió)
- Az ANSI SQL alapértelmezés szerint engedélyezve van
-
A PySpark és a Spark Connect mostantól támogatja a DataFrames API-t
df.mergeInto -
Támogatás
ALL CATALOGSa SÉMÁKbanSHOW - A folyékony fürtözés mostantól hatékonyabban tömöríti a törlési vektorokat
-
Nem determinisztikus kifejezések engedélyezése oszlopértékekben
UPDATE/INSERTműveletekhezMERGE - Az üres szerkezetek figyelmen kívül hagyása és megmentése az AutoLoader beolvasásnál (különösen az Avro esetében)
- A Delta MERGE Python és a Scala API-k módosítása a DataFrame visszaadásához egység helyett
- VAR-kulcsszó támogatása SQL-változók deklarálására és elvetására
- Apache Parquet-kódtárak frissítése
- Számítási feladatok identitás-összevonásának támogatása a Google Cloud Pub/Sub szolgáltatáshoz
A SparkML mostantól támogatott a normál klasztereken.
A standard hozzáférési mód (korábban megosztott hozzáférési mód) mostantól támogatja a Spark ML-t a PySparkban (pyspark.ml) és a Sparkhoz készült MLflow -t (mlflow.spark). A hiperparaméterek hangolásához a Databricks az Optuna és a Joblib Spark használatát javasolja standard fürtökön.
A SparkML futtatásakor standard fürtökön a következő korlátozások érvényesek:
- A modell maximális mérete 1 GB.
- A modell gyorsítótárának maximális mérete munkamenetenként 10 GB.
- A famodellek betanítása korán leáll, ha a modell mérete várhatóan meghaladja az 1 GB-ot.
- A következő SparkML-modellek nem támogatottak:
- ElosztottLDAModell
- FPGrowthModel
SQL-eljárás támogatása
Az SQL-szkriptek mostantól beágyazhatók egy, a Unity Catalogban újrahasználható objektumként tárolt eljárásba. Az eljárást a CREATE PROCEDURE paranccsal hozhatja létre, majd meghívhatja a CALL paranccsal.
Alapértelmezett rendezés beállítása SQL függvényekhez
Az új DEFAULT COLLATION záradék a(z) CREATE FUNCTION parancsban határozza meg az alapértelmezett rendezést, amelyet a paraméterekhez, a visszatérési típushoz és a konstansokhoz STRING alkalmaznak a függvény törzsében.
Rekurzív gyakori táblakifejezések (nyilvános előzetes verzió)
Az Azure Databricks mostantól támogatja a hierarchikus adatok rekurzív gyakori táblakifejezések (rCTE-k) használatával történő navigációját. A rekurzív kapcsolat követéséhez használjon egy önhivatkozó CTE-t a UNION ALL-val.
Az ANSI SQL alapértelmezés szerint engedélyezve van
Az alapértelmezett SQL-dialektus mostantól ANSI SQL. Az ANSI SQL egy jól bevált szabvány, amely segít megvédeni a felhasználókat a váratlan vagy helytelen eredményektől. További információért olvassa el a Databricks ANSI-engedélyezési útmutatót .
A PySpark és a Spark Connect mostantól támogatja a DataFrames API-t df.mergeInto
A PySpark és a Spark Connect mostantól támogatja az API-t, amely korábban csak a df.mergeInto Scala számára volt elérhető.
Támogatás ALL CATALOGS a SHOW SÉMÁKban
A SHOW SCHEMAS szintaxis a következő szintaxis elfogadásához frissül:
SHOW SCHEMAS [ { FROM | IN } { catalog_name | ALL CATALOGS } ] [ [ LIKE ] pattern ]
Ha ALL CATALOGS egy SHOW lekérdezésben meg van adva, a végrehajtás végigfut az összes olyan aktív katalóguson, amely támogatja a névtereket a katalóguskezelő (DsV2) használatával. Minden katalógushoz tartalmazza a legfelső szintű névtereket.
A parancs kimeneti attribútumait és sémáját úgy módosítottuk, hogy hozzáadjon egy catalog oszlopot, amely a megfelelő névtér katalógusát jelzi. Az új oszlop a kimeneti attribútumok végéhez lesz hozzáadva az alábbiak szerint:
Előző kimenet
| Namespace |
|------------------|
| test-namespace-1 |
| test-namespace-2 |
Új kimenet
| Namespace | Catalog |
|------------------|----------------|
| test-namespace-1 | test-catalog-1 |
| test-namespace-2 | test-catalog-2 |
A folyékony fürtözés mostantól hatékonyabban tömöríti a törlési vektorokat
Liquid fürtözésű Delta táblák mostantól hatékonyabban alkalmazzák a törlési vektorokból származó fizikai módosításokat, amikor OPTIMIZE fut. További részleteket a Parquet-adatfájlok módosításainak alkalmazása című témakörben talál.
Nem determinisztikus kifejezések engedélyezése oszlopértékekben UPDATE/INSERT műveletekhez MERGE
Az Azure Databricks mostantól lehetővé teszi a nem determinisztikus kifejezések használatát a műveletek frissített és beszúrt oszlopértékeiben MERGE . Azonban az MERGE utasítások feltételeinek nem determinisztikus kifejezései nem támogatottak.
Létrehozhat például dinamikus vagy véletlenszerű értékeket az oszlopokhoz:
MERGE INTO target USING source
ON target.key = source.key
WHEN MATCHED THEN UPDATE SET target.value = source.value + rand()
Ez hasznos lehet az adatvédelmet illetően a tényleges adatok elrejtéséhez az adattulajdonságok (például középértékek vagy más számított oszlopok) megőrzése mellett.
Üres struktúrák figyelmen kívül hagyása és helyreállítása az AutoLoader feldolgozáshoz (különösen az Avro esetében)
Az Automatikus Betöltő mostantól képes kezelni az üres sémával rendelkező Avro-adattípusokat, mivel a Delta-tábla nem támogatja az üres struct-típusú adatok bevitelét.
A Delta MERGE Python és a Scala API-k módosítása a DataFrame visszaadásához egység helyett
A Scala és a Python MERGE API-k (például DeltaMergeBuilder) mostantól az SQL API-hoz hasonló DataFrame-et is visszaadnak ugyanazokkal az eredményekkel.
VAR-kulcsszó támogatása SQL-változók deklarálására és elvetására
A változók deklarálására és elvetésére szolgáló SQL-szintaxis mostantól támogatja a VAR kulcsszót is.VARIABLE Ez a módosítás egységesíti a szintaxist minden változóval kapcsolatos művelet esetében, ami javítja a konzisztenciát, és csökkenti a változók beállításakor már használt VAR felhasználók zavarát.
Apache Parquet-kódtárak frissítése
Az Apache Parquet-kódtárak az 1.13.1-es verzióról az 1.15.1-es verzióra lettek frissítve a Spark 4.0-val való kompatibilitás biztosítása érdekében. Ez a frissítés teljesítménybeli fejlesztéseket, hibajavításokat és továbbfejlesztett Parquet-funkciók támogatását tartalmazza az alábbi modulokban:
- parketta-oszlop
- parquet-common
- parquet-encoding
- parquet-format-structures
- parquet-hadoop
- parquet-jackson
Számítási feladatok identitás-összevonásának támogatása a Google Cloud Pub/Sub szolgáltatáshoz
Mostantól a számítási feladatok identitás-összevonásával biztonságosan csatlakozhat a Google Cloud Pubhoz/Sub-hoz a Databricksből anélkül, hogy szolgáltatásfiókkulcsokat kellene igényelnie. Ez leegyszerűsíti a streamelési és adatbetöltési számítási feladatok hitelesítését, amelyek integrálhatók a Pub/Sub szolgáltatással.
Viselkedési változások
- A Databricks fájlrendszer (DBFS) egyéni hitelesítésszolgáltatói tanúsítványai már nem támogatottak
- A Spark felhasználói felületén eltávolítottuk a "True cache misses" (Igaz gyorsítótár-kihagyások) szakaszt
- A Spark felhasználói felületén eltávolítottuk a "Cache Metadata Manager Peak Disk Usage" metrikát
- A Spark felhasználói felületén eltávolítottuk az "Újraütemezett gyorsítótár kihagyja a bájtokat" szakaszt
-
CREATE VIEWaz oszlopszintű záradékok hibát jeleznek, ha a záradék csak a materializált nézetekre vonatkozik
A Databricks fájlrendszer (DBFS) egyéni hitelesítésszolgáltatói tanúsítványai már nem támogatottak
A DBFS-gyökér- és DBFS-csatlakoztatások adattárolásának megszüntetésére irányuló folyamatos erőfeszítések részeként a DBFS egyéni hitelesítésszolgáltatói tanúsítványai nem támogatottak a Databricks Runtime 17.0-s és újabb verzióiban. A fájlok használatával kapcsolatos javaslatokért tekintse meg a Fájlok használata az Azure Databricksben című témakört.
A Spark felhasználói felületén eltávolítottuk a "True cache misses" (Igaz gyorsítótár-kihagyások) szakaszt
Ez a változtatás eltávolítja a "Gyorsítótár valós hiány méretének" metrika támogatását (mind a tömörített, mind a tömörítetlen gyorsítótárak esetében). A "Cache writes misses" metrika ugyanazt az információt méri.
Használja a numLocalScanTasks metrika használható proxyját, amikor a cél az, hogy lássa, hogyan teljesít a gyorsítótár, amikor a fájlok a megfelelő végrehajtóhoz vannak rendelve.
A Spark felhasználói felületén eltávolítottuk a "Cache Metadata Manager Peak Disk Usage" metrikát
Ez a változtatás eltávolítja a cacheLocalityMgrDiskUsageInBytes és cacheLocalityMgrTimeMs metrikák támogatását a Databricks Runtime-ból és a Spark felhasználói felületéből.
Eltávolítottuk az "Újraütemezett gyorsítótár-találat hiányzó bájtjai" szakaszt a Spark felhasználói felületéről.
Eltávolította a gyorsítótár átütemezett kihagyások méretét és a gyorsítótár újraütemezett (tömörítetlen) metrikáit a Databricks Runtime-ból. Ez azért van így, mert ez azt méri, hogy a gyorsítótár hogyan teljesít, amikor a fájlokat nem előnyben részesített végrehajtókhoz rendelik. A numNonLocalScanTasks jó proxy ehhez a metrikához.
CREATE VIEW az oszlopszintű záradékok hibát jeleznek, ha a záradék csak a materializált nézetekre vonatkozik
CREATE VIEW parancsok, amelyek olyan oszlopszintű záradékot adnak meg, amely csak MATERIALIZED VIEW-ek számára érvényes, most hibát jeleznek. Az érintett kikötések a CREATE VIEW parancsok esetében a következők:
NOT NULL- Megadott adattípus, például
FLOATSTRING DEFAULTCOLUMN MASK
Könyvtárfrissítések
Frissített Python-kódtárak:
- azure-core 1.31.0 és 1.34.0 között
- fekete 24.4.2 és 24.10.0 között
- boto3 1.34.69 és 1.36.2 között
- botocore 1.34.69-től 1.36.3-ra
- cachetools 5.3.3-ről 5.5.1-re
- minősítés 2024.6.2-től 2025.1.31-ig
- cffi 1.16.0 és 1.17.1 között
- charset-normalizer 2.0.4 és 3.3.2 között
- cloudpickle 2.2.1 és 3.0.0 között
- contourpy 1.2.0 és 1.3.1 között
- titkosítás 42.0.5–43.0.3 között
- Cython 3.0.11-től 3.0.12-ig
- databricks-sdk 0.30.0 és 0.49.0 között
- debugpy 1.6.7-ről 1.8.11-re
- Elavult 1.2.14-ről 1.2.13-ra
- distlib 0.3.8-ról 0.3.9-re
- filelock verzióváltás 3.15.4-ről 3.18.0-ra
- fonttools 4.51.0-ról 4.55.3-ra
- GitPython 3.1.37-től 3.1.43-ig
- google-hitelesítés 2.35.0-tól 2.40.0-ig
- google-cloud-core 2.4.1-től 2.4.3-ra
- google-cloud-storage 2.18.2-től 3.1.0-ra
- google-crc32c 1.6.0 és 1.7.1 között
- grpcio 1.60.0-ról 1.67.0-ra
- grpcio-status 1.60.0-ról 1.67.0-ra
- importlib-metadata 6.0.0-ról 6.6.0-ra
- ipyflow-core 0.0.201-től 0.0.209-ig
- ipykernel 6.28.0 és 6.29.5 között
- ipython 8.25.0-tól 8.30.0-ig
- ipywidgets 7.7.2 és 7.8.1 között
- jedi 0.19.1-ről 0.19.2-re
- jupyter_client 8.6.0-ról 8.6.3-ra
- kiwisolver 1.4.4 és 1.4.8 között
- matplotlib 3.8.4 és 3.10.0 között
- matplotlib-inline 0.1.6 és 0.1.7 között
- mlflow-skinny 2.19.0-tól 2.22.0-ra
- numpy 1.26.4 és 2.1.3 között
- opentelemetry-api 1.27.0-tól 1.32.1-esig
- opentelemetry-sdk 1.27.0 és 1.32.1 között
- opentelemetry-szemantikai-konvenciók 0,48b0-ról 0,53b1-re
- pandas 1.5.3 verzióról 2.2.3 verzióra
- parso 0.8.3 és 0.8.4 között
- patsy 0.5.6-tól 1.0.1-ig
- párna 10.3.0-tól 11.1.0-ra
- ábrázolás 5.22.0-tól 5.24.1-ig
- Pluggy 1.0.0-tól 1.5.0-ra
- proto-plus 1.24.0 és 1.26.1 között
- protobuf 4.24.1 és 5.29.4 között
- pyarrow 15.0.2 és 19.0.1 között
- pyccolo 0.0.65 és 0.0.71 között
- pydantic 2.8.2 és 2.10.6 között
- pydantic_core 2.20.1 és 2.27.2 között
- PyJWT 2.7.0 és 2.10.1 között
- pyodbc 5.0.1-től 5.2.0-ig
- pyparsing 3.0.9-ről 3.2.0-ra
- pyright 1.1.294-től 1.1.394-ig
- python-lsp-server 1.10.0 és 1.12.0 között
- PyYAML 6.0.1 és 6.0.2 között
- pyzmq 25.1.2-től 26.2.0-ra
- 2.32.2-től 2.32.3-ra történő kérelmek
- rsa 4.9->4.9.1
- s3transfer 0.10.2-ről 0.11.3-ra
- scikit-learn 1.4.2-tól 1.6.1-ig
- scipy 1.13.1-től 1.15.1-ig
- sqlparse 0.5.1-től 0.5.3-ra
- statsmodels 0.14.2-től 0.14.4-ig
- 8.2.2 és 9.0.0 közötti kitartás
- threadpoolctl 2.2.0 és 3.5.0 között
- tornádó 6.4.1 és 6.4.2 között
- typing_extensions frissítése 4.11.0-ról 4.12.2-re
- urllib3 1.26.16-tól 2.3.0-ra
- virtualenv 20.26.2-től 20.29.3-ra
- kerékváltozat 0.43.0-tól 0.45.1-ig
- A "wrapt" frissítése 1.14.1-ről 1.17.0-ra
- yapf 0.33.0-tól 0.40.2-től
- zipp 3.17.0-ról 3.21.0-ra
Frissített R-kódtárak:
- 16.1.0 és 19.0.1 közötti nyíl
- askpass 1.2.0 és 1.2.1 között
- alap: 4.4.0–4.4.2
- bigD 0.2.0-tól 0.3.0-ra
- bit 4.0.5 és 4.6.0 között
- bit64 4.0.5-től 4.6.0-1-hez
- bitops 1,0-8-ról 1,0-9-re
- seprű 1.0.6-ról 1.0.7-re
- bslib 0.8.0 és 0.9.0 között
- caret 6.0-94 és 7.0-1 között
- chron 2.3-61-től 2.3-62-hez
- cli 3.6.3 és 3.6.4 között
- frissítés 0.7.1-ről 0.7.2-re
- commonmark 1.9.1-ről 1.9.5-re
- fordító 4.4.0-ról 4.4.2-re
- cpp11 0.4.7 és 0.5.2 között
- hitelesítő adatok a 2.0.1-től a 2.0.2-hez
- curl frissítés 5.2.1-ről 6.2.1-re
- data.table 1.15.4–1.17.0
- adatkészletek a 4.4.0-tól a 4.4.2-hez
- kivonat 0.6.36-tól 0.6.37-ig
- e1071 1.7-14-ről 1.7-16-ra
- kiértékelés 0.24.0-ról 1.0.3-ra
- fontawesome 0.5.2-től 0.5.3-ra
- fs 1.6.4 és 1.6.5 között
- future.apply 1.11.2-ről 1.11.3-ra
- gert 2.1.0 és 2.1.4 között
- git2r 0.33.0-tól 0.35.0-ra
- 1.7.0-ról 1.8.0-ra történő verziófrissítés
- gower frissítése 1.0.1-ről 1.0.2-re
- 4.4.0 és 4.4.2 közötti grafikus elemek
- grDevices a 4.4.0-tól 4.4.2-ig
- rács 4.4.0 és 4.4.2 között
- gt 0.11.0 és 0.11.1 között
- 0.3.5-től 0.3.6-osig
- hardhat 1.4.0 és 1.4.1 között
- httr2 1.0.2 és 1.1.1 között
- jsonlite 1.8.8 és 1.9.1 között
- knitr 1,48-tól 1,50-ig
- később 1.3.2-ről 1.4.1-re
- lava 1.8.0-ról 1.8.1-re
- lubridate 1.9.3-ról 1.9.4-re
- módszerek 4.4.0-tól 4.4.2-ig
- mime 0,12-től 0,13-ra
- mlflow 2.14.1-től 2.20.4-esig
- nlme 3.1-165-től 3.1-164-hez
- Az openssl frissítése 2.2.0-ról 2.3.2-re.
- párhuzamos 4.4.0 és 4.4.2 között
- párhuzamosan az 1.38.0-tól az 1.42.0-sig
- oszlop 1.9.0-tól 1.10.1-ig
- pkgbuild 1.4.4-től 1.4.6-osig
- pkgdown 2.1.0-ról 2.1.1-re
- processx 3.8.4-től 3.8.6-osig
- profvis 0.3.8 és 0.4.0 között
- progressr 0.14.0-tól 0.15.1-től
- ígéretek 1.3.0-tól 1.3.2-ig
- ps 1.7.7-től 1.9.0-ra
- purrr 1.0.2 és 1.0.4 között
- R6 2.5.1-től 2.6.1-ig
- ragg 1.3.2-ről 1.3.3-re
- randomForest 4.7-1.1-ről 4.7-1.2-re
- Rcpp 1.0.13-tól 1.0.14-ig
- RcppEigen 0.3.4.0.0 és 0.3.4.0.2 között
- reactR 0.6.0 és 0.6.1 között
- readxl 1.4.3 és 1.4.5 között
- receptek 1.1.0-tól 1.2.0-ra
- rlang 1.1.4-től 1.1.5-ig
- rmarkdown frissítése 2.27-ről 2.29-re
- RODBC 1.3-23-tól 1.3-26-ig
- Rserve 1.8-13-tól 1.8-15-ig
- RSQLite 2.3.7-től 2.3.9-esig
- rstudioapi 0.16.0 és 0.17.1 között
- sessioninfo 1.2.2-től 1.2.3-ra
- fényes 1.9.1-től 1.10.0-ra
- sparklyr 1.8.6 és 1.9.0 között
- SparkR 3.5.2 és 4.0.0 között
- spline-ok 4.4.0-ról 4.4.2-re
- 4.4.0 és 4.4.2 közötti statisztikák
- statisztikái4 a 4.4.0-tól a 4.4.2-hez
- túlélés 3,6-4-ről 3,5-8-ra
- sys 3.4.2-től 3.4.3-ra
- systemfonts frissítése 1.1.0-ról 1.2.1-re
- tcltk 4.4.0 és 4.4.2 között
- testthat 3.2.1.1-től 3.2.3-ra
- 0.4.0 és 1.0.0 közötti szövegformázás
- timeDate 4032.109 és 4041.110 között
- tinytex 0,52 és 0,56 között
- 4.4.0 és 4.4.2 közötti eszközök
- tzdb 0.4.0 és 0.5.0 között
- usethis 3.0.0-tól 3.1.0-ig
- utils 4.4.0-ról 4.4.2-re
- V8 4.4.2 és 6.0.2 között
- waldo 0.5.2-től 0.6.1-től
- 3.0.1-től 3.0.2-ig
- xfun 0,46 és 0,51 között
- xml2 1.3.6-tól 1.3.8-ra
- zip 2.3.1 és 2.3.2 között
Frissített Java-kódtárak:
- com.clearspring.analytics.stream 2.9.6-tól 2.9.8-ra
- com.esotericsoftware.kryo-shaded verziója 4.0.2-ről 4.0.3-ra
- com.fasterxml.classmate 1.3.4 és 1.5.1 között
- com.fasterxml.jackson.core.jackson-annotations 2.15.2-ről 2.18.2-re
- com.fasterxml.jackson.core.jackson-core 2.15.2 és 2.18.2 között
- com.fasterxml.jackson.core.jackson-databind 2.15.2 és 2.18.2 között
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor 2.15.2 és 2.18.2 között
- com.fasterxml.jackson.datatype.jackson-datatype-joda 2.15.2 és 2.18.2 között
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 2.16.0 és 2.18.2 között
- com.fasterxml.jackson.module.jackson-module-paranamer 2.15.2-2.18.2
- com.github.luben.zstd-jni 1.5.5-4-től 1.5.6-10-ig
- com.google.code.gson.gson 2.10.1 és 2.11.0 között
- com.google.crypto.tink 1.9.0-ról 1.16.0-ra
- com.google.errorprone.error_prone_annotations verziója 2.10.0-ról 2.36.0-ra változott
- com.google.flatbuffers.flatbuffers-java 23.5.26-ról 24.3.25-re történő frissítése
- com.google.guava.guava verziófrissítés 15.0-ról 33.4.0-jre-re
- com.google.protobuf.protobuf-java 3.25.1 és 3.25.5 között
- com.microsoft.azure.azure-data-lake-store-sdk 2.3.9 és 2.3.10 között
- com.microsoft.sqlserver.mssql-jdbc 11.2.3.jre8 verzióról a 12.8.0.jre8 verzióra
- commons-cli.commons-cli 1.5.0-ról 1.9.0-ra
- commons-codec.commons-codec 1.16.0 és 1.17.2 között
- commons-io.commons-io 2.13.0 és 2.18.0 között
- io.airlift.aircompressor 0.27-től 2.0.2-ig
- io.dropwizard.metrics.metrics-annotation 4.2.19-ről 4.2.30-ra
- io.dropwizard.metrics.metrics-core 4.2.19-ről 4.2.30-ra
- io.dropwizard.metrics.metrics-graphite 4.2.19-ről 4.2.30-ra
- io.dropwizard.metrics.metrics-healthchecks változtatás 4.2.19-ról 4.2.30-ra
- io.dropwizard.metrics.metrics-jetty9 4.2.19-től 4.2.30-ra
- io.dropwizard.metrics.metrics-jmx 4.2.19 és 4.2.30 között
- io.dropwizard.metrics.metrics-json 4.2.19-től 4.2.30-ra
- io.dropwizard.metrics.metrics-jvm 4.2.19 és 4.2.30 között
- io.dropwizard.metrics.metrics-servlets frissítése 4.2.19-ről 4.2.30-ra
- io.netty.netty-all 4.1.108.Finalról 4.1.118.Finalra
- io.netty.netty-buffer 4.1.108.Final és 4.1.118.Final között
- io.netty.netty-codec 4.1.108.Final-ről 4.1.118.Final-re
- io.netty.netty-codec-http 4.1.108.Final-ról 4.1.118.Final-re
- io.netty.netty-codec-http2 4.1.108.Final-ról 4.1.118.Final-re
- io.netty.netty-codec-socks 4.1.108.Final-ról 4.1.118.Final-re
- io.netty.netty-common 4.1.108.Final-ról 4.1.118.Final-re
- io.netty.netty-handler 4.1.108.Final és 4.1.118.Final
- io.netty.netty-handler-proxy 4.1.108.Final-ről 4.1.118.Final-re
- io.netty.netty-resolver 4.1.108.Final-tól 4.1.118.Final-ig
- io.netty.netty-tcnative-boringssl-static -től 2.0.61.Final-db-r16-windows-x86_64 -ig 2.0.70.Final-db-r0-windows-x86_64
- io.netty.netty-tcnative-classes 2.0.61.Finalról 2.0.70.Finalre
- io.netty.netty-transport 4.1.108.Final-tól 4.1.118.Final-ig
- io.netty.netty-transport-classes-epoll 4.1.108.Final verzióról a 4.1.118.Final verzióra
- io.netty.netty-transport-classes-kqueue 4.1.108.Final-tól 4.1.118.Final-ig
- io.netty.netty-transport-native-epoll frissítése 4.1.108.Final-linux-x86_64-ről 4.1.118.Final-linux-x86_64-re
- io.netty.netty-transport-native-kqueue 4.1.108.Final-osx-x86_64 verzióról 4.1.118.Final-osx-x86_64 verzióra
- io.netty.netty-transport-native-unix-common 4.1.108.végső verzióról 4.1.118.végső verzióra
- io.prometheus.jmx.collector 0.12.0 és 0.18.0 között
- io.prometheus.simpleclient 0.7.0-tól 0.16.1-databricksig
- io.prometheus.simpleclient_common 0.7.0 verziótól 0.16.1-databricks verzióig
- io.prometheus.simpleclient_dropwizard verziója 0.7.0-ról 0.16.1-databricks verzióra
- io.prometheus.simpleclient_pushgateway 0.7.0–0.16.1-databricks
- io.prometheus.simpleclient_servlet 0.7.0-tól 0.16.1-databricksig
- joda-time.joda-time 2.12.1 és 2.13.0 között
- net.razorvine.pickle 1.3-as verzióról 1.5-ös verzióra
- org.antlr.antlr4-runtime 4.9.3 és 4.13.1 között
- org.apache.arrow.arrow-format 15.0.0-ról 18.2.0-ra
- org.apache.arrow.arrow-memory-core 15.0.0-tól 18.2.0-ig
- Az org.apache.arrow.arrow-memory-netty frissítése a 15.0.0 verzióról a 18.2.0 verzióra.
- org.apache.arrow.arrow-vector frissítése a 15.0.0 verzióról a 18.2.0 verzióra
- org.apache.avro.avro 1.11.4-től 1.12.0-ra
- org.apache.avro.avro-ipc 1.11.4-től 1.12.0-ra
- org.apache.avro.avro-mapred 1.11.4-től 1.12.0-ra
- org.apache.commons.commons-compress 1.23.0-ról 1.27.1-re
- org.apache.commons.commons-lang3 3.12.0 és 3.17.0 között
- org.apache.commons.commons-text 1.10.0 és 1.13.0 között
- org.apache.curator.curator-client 2.13.0 és 5.7.1 között
- org.apache.curator.curator-framework 2.13.0-tól 5.7.1-ig
- org.apache.curator.curator-recipes 2.13.0-től 5.7.1-ig
- org.apache.datasketches.datasketches-java 3.1.0 és 6.1.1 között
- org.apache.datasketches.datasketches-memory 2.0.0-ról 3.0.2-ra.
- org.apache.hadoop.hadoop-client-runtime 3.3.6 és 3.4.1 között
- org.apache.hive.hive-beeline 2.3.9-ről 2.3.10-re
- org.apache.hive.hive-cli 2.3.9 és 2.3.10 között
- org.apache.hive.hive-jdbc 2.3.9-től 2.3.10-ig
- org.apache.hive.hive-llap-client 2.3.9-től 2.3.10-re
- org.apache.hive.hive-llap-common 2.3.9 és 2.3.10 között
- org.apache.hive.hive-serde 2.3.9-től 2.3.10-esig
- org.apache.hive.hive-shims 2.3.9-től 2.3.10-re
- org.apache.hive.shims.hive-shims-0.23 2.3.9 és 2.3.10 között
- org.apache.hive.shims.hive-shims-common 2.3.9-ről 2.3.10-re
- org.apache.hive.shims.hive-shims-scheduler 2.3.9-ről 2.3.10-re
- org.apache.ivy.ivy 2.5.2 és 2.5.3 között
- org.apache.logging.log4j.log4j-1.2-api 2.22.1-től 2.24.3-ra
- org.apache.logging.log4j.log4j-api 2.22.1-től 2.24.3-ra
- org.apache.logging.log4j.log4j-core 2.22.1 és 2.24.3 között
- org.apache.logging.log4j.log4j-layout-template-json 2.22.1 és 2.24.3 között
- org.apache.logging.log4j.log4j-slf4j2-impl 2.22.1-től 2.24.3-ra
- org.apache.orc.orc-core 1.9.2-shaded-protobuf-ról 2.1.1-shaded-protobuf-ra
- Az org.apache.orc.orc-mapreduce könyvtár frissítése a 1.9.2-shaded-protobuf verzióról a 2.1.1-shaded-protobuf verzióra.
- org.apache.orc.orc-shims 1.9.2-ről 2.1.1-re
- org.apache.thrift.libthrift 0.12.0-tól 0.16.0-ig
- org.apache.ws.xmlschema.xmlschema-core 2.3.0-tól 2.3.1-esig
- org.apache.xbean.xbean-asm9-shaded 4.23-ról 4.26-ra
- org.apache.zookeeper.zookeeper 3.9.2 és 3.9.3 között
- org.apache.zookeeper.zookeeper-jute 3.9.2 és 3.9.3 között
- org.checkerframework.checker-qual 3.31.0-tól 3.43.0-ra
- org.eclipse.jetty.jetty-client 9.4.52.v20230823 és 9.4.53.v20231009
- org.eclipse.jetty.jetty-folytatás 9.4.52.v20230823-tól 9.4.53.v20231009
- org.eclipse.jetty.jetty-http 9.4.52.v20230823 verzióról 9.4.53.v20231009 verzióra
- org.eclipse.jetty.jetty-io 9.4.52.v20230823 és 9.4.53.v20231009
- org.eclipse.jetty.jetty-jndi 9.4.52.v20230823 és 9.4.53.v20231009
- org.eclipse.jetty.jetty-plus 9.4.52.v20230823-tól 9.4.53.v20231009
- org.eclipse.jetty.jetty-proxy 9.4.52.v20230823 és 9.4.53.v20231009 között
- org.eclipse.jetty.jetty-security 9.4.52.v20230823-tól 9.4.53.v20231009-ig
- org.eclipse.jetty.jetty-server 9.4.52.v20230823 és 9.4.53.v20231009
- org.eclipse.jetty.jetty-servlet frissítése 9.4.52.v20230823-ról 9.4.53.v20231009-re
- org.eclipse.jetty.jetty-servlets 9.4.52.v20230823 és 9.4.53.v20231009
- org.eclipse.jetty.jetty-util verzióváltás 9.4.52.v20230823-ról 9.4.53.v20231009-re
- org.eclipse.jetty.jetty-util-ajax frissítése 9.4.52.v20230823-ról 9.4.53.v20231009-re
- org.eclipse.jetty.jetty-webapp verzióról 9.4.52.v20230823 verzióra 9.4.53.v20231009
- org.eclipse.jetty.jetty-xml 9.4.52.v20230823 és 9.4.53.v20231009 között
- org.eclipse.jetty.websocket.websocket-api 9.4.52.v20230823–9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-client 9.4.52.v20230823–9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-common 9.4.52.v20230823–9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-server frissítése 9.4.52.v20230823-ról 9.4.53.v20231009-re
- org.eclipse.jetty.websocket.websocket-servlet 9.4.52.v20230823 verzióról 9.4.53.v20231009 verzióra
- org.glassfish.jersey.containers.jersey-container-servlet 2.40-tól 2.41-ig
- org.glassfish.jersey.containers.jersey-container-servlet-core 2.40-ről 2.41-re
- org.glassfish.jersey.core.jersey-client 2.40-ről 2.41-re
- org.glassfish.jersey.core.jersey-common 2.40-ről 2.41-re
- org.glassfish.jersey.core.jersey-server 2.40-ről 2.41-re
- org.glassfish.jersey.inject.jersey-hk2 2.40-ről 2.41-re
- org.hibernate.validator.hibernate-validator 6.1.7.Final-ról 6.2.5.Final-ra
- org.jboss.logging.jboss-logging 3.3.2.Final verzióról 3.4.1.Final verzióra
- org.objenesis.objenesis verzió 2.5.1-ről 3.3-ra
- org.roaringbitmap.RoaringBitmap 0.9.45-databricks verzióról 1.2.1 verzióra
- org.rocksdb.rocksdbjni 9.2.1 és 9.8.4 között
- org.scalatest.scalatest-compatible verzió 3.2.16-tól 3.2.19-ig
- org.slf4j.jcl-over-slf4j 2.0.7 és 2.0.16 között
- org.slf4j.jul-to-slf4j 2.0.7 és 2.0.16 között
- org.slf4j.slf4j-api 2.0.7-től 2.0.16-osig
- org.threeten.threeten-extra 1.7.1-től 1.8.0-ra
- org.tukaani.xz 1,9 és 1,10 között
Apache Spark
Számos funkciója már elérhető volt a Databricks Runtime 14.x, 15.x és 16.x verziójában, és most a Runtime 17.0-s verziójával szállítanak ki a dobozból.
- SPARK-52311 Az UnionLoop-kimenet ismételt definiálása, hogy ne ismétlődjön, ha a horgonykimenet duplikálva van
- SPARK-50104 Támogatja a SparkSession.executeCommand használatát a Connectben
- SPARK-51085 SQLContext Companion visszaállítása
- SPARK-49698 Csak klasszikus metódusokhoz adjon hozzá ClassicOnly jegyzetet.
- SPARK-52026 Pandas API letiltása a Sparkon ANSI-módban alapértelmezés szerint
-
SPARK-43415 Megvalósítás
KVGDS.aggegyedimapValuesfüggvénnyel - SPARK-50979 .expr/.typedExpr implicitek eltávolítása
- SPARK-49961 Átalakítási típus aláírásának javítása a Scala és a Java esetében is
- SPARK-51012 Távolítsa el a SparkStrategyet a Connect Shimsből.
-
SPARK-50915
getConditionhozzáadása ésgetErrorClasselavulttá nyilvánítása a(z)PySparkException - SPARK-51821 interrupt() meghívása az uninterruptibleLock tartása nélkül a lehetséges holtpont elkerülése érdekében
- SPARK-52192 MLCache betöltési útvonal ellenőrzése
- SPARK-52122 DefaultParamsReader RCE biztonsági rés javítása
- SPARK-52191 Java-deszerializáló eltávolítása a modell helyi elérési útjának betöltőjében
- SPARK-52051 Az "A modell összegzésének engedélyezése a memóriavezérlés engedélyezésekor" és a "Hibaüzenet pontosítása, belső spark konfiguráció elrejtése" című véglegesítések átvitele a Databricks Runtime 17.0.0-ra.
-
SPARK-51391 Javítás
SparkConnectClientSPARK_USERésuser.namefigyelembevételére - SPARK-51416 SPARK_CONNECT_MODE eltávolítása a Spark Connect-kiszolgáló indításakor
- SPARK-51156 Statikus jogkivonat-hitelesítés támogatása a Spark Connectben
- SPARK-51279 A Spark Connect-kiszolgáló folyamatos alvó állapotának elkerülése a Scalában
- SPARK-51254 A --master használatának megtiltása a Spark Connect URL-címmel
- SPARK-51267 Helyi Spark Connect-kiszolgálói logika egyeztetése a Python és a Scala között
- SPARK-51212 Külön PySpark-csomag hozzáadása a Spark Connecthez alapértelmezés szerint
- SPARK-52017 Több önhivatkozás és önhivatkozás engedélyezése egy rCTE-kben lévő allekérdezésből
- SPARK-52035 LinearRegressionTrainingSummary és LinearRegressionModel szétválasztása
- SPARK-50511 A Python-adatforrás hibaüzenetek körbefuttatásának elkerülése
- SPARK-51974 A modell méretének és munkamenetenkénti gyorsítótár-méretének korlátozása
- SPARK-51947 A Spark Connect modell gyorsítótárának áttelepítése
- SPARK-49751 A SparkListenerConnectServiceStarted esemény deszerializálásának javítása
- SPARK-47952 A Valódi SparkConnectService GRPC-cím és port programozott lekérésének támogatása a Yarn futtatásakor
- SPARK-47587 Hive-modul: LogWarn migrálása változókkal a strukturált naplózási keretrendszerbe
- SPARK-50768 A TaskContext.createResourceUninterruptibly bemutatása a streamszivárgás feladatkimaradás miatti elkerüléséhez
- SPARK-51818 A QueryExecution létrehozását áthelyezzük az AnalyzeHandlerbe, és nem hajtjuk végre az AnalyzePlanRequest-eket
- SPARK-51609 Rekurzív CTE-végrehajtás optimalizálása egyszerű lekérdezésekhez
-
SPARK-49748
getConditionhozzáadása ésgetErrorClasselavulttá tétele a következőben:SparkThrowable - SPARK-51867 Mentési/betöltési módszereket támogató scala-modell létrehozása a helyi fájlrendszer elérési útján
- SPARK-51856 Modellméret API frissítése az elosztott DataFrame-méret megszámlálásához
- SPARK-51941 A convertToCatalyst pontossági problémájának megoldása, ha a bemenet bigdecimális -1,0 és 1,0 között van
- SPARK-50605 Sql API mód támogatása a Spark Connectre való könnyebb migráláshoz
-
SPARK-51849 Refaktorálás
ResolveDDLCommandStringTypes - SPARK-51673 Alapértelmezett rendezés alkalmazása a nézet lekérdezésének módosításához
- SPARK-51880 Az ML-gyorsítótár objektum python-ügyfélhivatkozásainak javítása
- SPARK-51873 OneVsRest-algoritmus esetén engedélyezze a mentés/betöltés használatát a gyorsítótár cseréjéhez
- SPARK-51072 CallerContext a Hadoop felhő auditkörnyezetének beállításához
- SPARK-51790 UTF8String regisztrálása a KryoSerializerbe
-
SPARK-51022 Távolítsa el a nem használt
tableSampleClauseelemet abuild()metódusban aMsSqlServerSQLQueryBuilderés aDB2SQLQueryBuilderesetén. -
SPARK-51219 Javítás
ShowTablesExec.isTempViewa nemV2SessionCatalogkatalógusokkal való munkához - SPARK-49700 Egységes Scala-interfész a Connecthez és a Classichoz
- SPARK-50458 A nem támogatott fájlrendszer megfelelő hibakezelése fájlok olvasásakor
- SPARK-50666 Támogatási tipp a JDBC-adatforrásban való olvasáshoz
- SPARK-50131 Újraalkalmazás "IN Allekérdezés Adatkeret Hozzáadása…"
- SPARK-51899 Hibakezelési szabályok implementálása a spark.catalog.listTables() szolgáltatáshoz
-
SPARK-51820 Az új
group/orderfennmaradó problémáinak megoldása sorszám szerinti megközelítéssel -
SPARK-48585 A
built-inJdbcDialect metódusánakclassifyExceptionkivédése a kivételbőloriginal - SPARK-48387 Postgres: Időbélyegtípus leképezése IDŐBÉLYEG IDŐZÓNÁVAL
-
SPARK-51820 Az építés áthelyezése
UnresolvedOrdinalelemzés előtt a rendezési sorrend szerinti csoportosítással kapcsolatos problémák elkerülése érdekében. - SPARK-48337 A JDBC TIME értékek pontosságvesztésének javítása
- SPARK-51711 Az aktív távoli spark-munkamenet propagálása új szálakra a CrossValidator javítása érdekében
- SPARK-47515 TimestampNTZType mentése DATETIME-ként a MySQL-ben
- SPARK-48439 Derby: A TIZEDES típus megfelelő pontosságának és skálázásának kiszámítása
- SPARK-51820 Készítse elő a redakciós logikát a SPARK-51820 kódszinkronizáláshoz
- SPARK-48323 DB2: BooleanType leképezése BOOLEAN-ra CHAR(1) helyett
- SPARK-51635 PushProjectionThroughLimit és PushProjectionThroughOffset egyesítése
- SPARK-48211 DB2: A SMALLINT típust ShortType-ként olvasd be
- SPARK-51803 Külső motor JDBC-típusának tárolása a StructField metaadataiban
-
SPARK-51845 Protokollüzenetek hozzáadása
CleanCacheésGetCacheInfo - SPARK-49511 Formázási szabályok alkalmazása az SQL/API-ra
- SPARK-47968 MsSQLServer: Datatimeoffset leképezése TimestampType-ra
- SPARK-51726 Használja a TableInfo-t a STAGE CREATE/REPLACE/CREATE VAGY REPLACE táblákhoz.
-
SPARK-47967 A
JdbcUtils.makeGettermegfelelő kezelése az NTZ időtípus olvasásánál - SPARK-47989 MsSQLServer: Javítsa a spark.sql.legacy.mssqlserver.numericMapping.enabled hatókörét.
- SPARK-51193 Frissítse a Nettyt a 4.1.118.Final verzióra és a netty-tcnative-ot a 2.0.70.Final verzióra
- A SPARK-47882 createTableColumnTypes-t adatbázistípusokra kell leképezni a közvetlen használat helyett
- SPARK-47879 Oracle: VARCHAR helyett VARCHAR2 használata VarcharType-leképezéshez
- SPARK-51372 A TableInfo bemutatása táblalétrehozásokhoz
- SPARK-47791 A truncate a JDBC-adatforrásból származó pontosság helyett a skálázással lépi túl a tizedesjegyeket
-
SPARK-51404 A
time(n)típus elemzése mintTimeType(n) -
SPARK-50350 Avro: új függvény
schema_of_avrohozzáadása (scalaoldal) -
SPARK-51136 Előzménykiszolgálóhoz beállítás
CallerContext -
SPARK-50641 Ugrás
GetJsonObjectEvaluatoride:JsonExpressionEvalUtils -
SPARK-50083 Integrálja
_LEGACY_ERROR_TEMP_1231aPARTITIONS_NOT_FOUND -
SPARK-51556 A
try_to_timefüggvény hozzáadása - SPARK-47684 Postgres: A bpchar nem meghatározott hosszúságú karakterlánctípus StringType-ra történő megfeleltetése
- SPARK-48688 Ésszerű hibát ad vissza az SQL to_avro és from_avro függvények meghívásakor, de az Avro alapértelmezés szerint nincs betöltve
- SPARK-49839 SPJ: Ha lehetséges, kihagyja a keveréseket
- SPARK-45534 A RemoteBlockPushResolver véglegesítése helyett a java.lang.ref.Cleaner használata
-
SPARK-51816 Egyszerűsítés
StatFunctions.multipleApproxQuantilesadatkeret API-kkal - SPARK-49179 A V2 többszörösen vödrözött belső illesztések javítása, amelyek AssertionError-t dobnak
- SPARK-47456 ORC Brotli-kodek támogatása
- SPARK-51542 Görgetőgomb hozzáadása a felső és az alsó navigálásához
-
SPARK-51541
TIMEAz adattípus támogatása metódusokbanLiteral - SPARK-51615 A ShowNamespaces refaktorálása úgy, hogy a RunnableCommand-et használja
- SPARK-51191 Alapértelmezett értékek kezelésének ellenőrzése a DELETE, UPDATEa MERGE alkalmazásban
-
SPARK-51829 Az ügyféloldalnak a törlés után frissítenie
client.thread_local.ml_cacheskell - SPARK-51358 Pillanatképek feltöltési késésének észlelése a StateStoreCoordinator használatával
- SPARK-51686 Az alvégrehajtások végrehajtási azonosítóinak összekapcsolása az aktuális végrehajtáshoz, ha vannak ilyenek
-
SPARK-51456 A
to_timefüggvény hozzáadása - SPARK-51773 A fájlformátumok esetosztályokká alakítása a megfelelő összehasonlításukhoz
- SPARK-51777 Sql.columnar.* osztályok regisztrálása a KryoSerializerbe
- SPARK-51432 Dob megfelelő kivételt, ha az Arrow sémák nem egyeznek
- SPARK-51395 Az alapértelmezett értékek kezelésének finomítása az eljárásokban
- SPARK-50582 Idézőjel beépített függvényének hozzáadása
- SPARK-51684 Teszthiba kijavítása a test_pandas_transform_with_state
- SPARK-51213 Kifejezésosztály adatainak megőrzése a tippparaméterek feloldásakor
- SPARK-51651 Az aktuális végrehajtás gyökérvégrehajtási azonosítójának csatolása, ha van ilyen
- SPARK-50947 Megfelelő hibaosztály és SparkException hozzárendelése duplikált összetevőkhöz
- SPARK-51574 Szűrők szerializálása Python-alapú adattárhely szűrő továbbításához
- SPARK-51608 Naplózási kivétel a Python-futó leállításakor
-
SPARK-51266 Távolítsa el a nem használt definíciót
private[spark] object TaskDetailsClassNames - SPARK-51011 Naplózás hozzáadása annak megállapításához, hogy egy tevékenység megszakad-e a leöléskor
- SPARK-49646 Spark-konfiguráció hozzáadása a subquery decorrelation javításához
- SPARK-51107 A CommandBuilderUtils#join átalakítása a kódsorok újrafelhasználásához és a redundancia csökkentéséhez.
- SPARK-51758 A vízjel miatt üres dataframe-et okozó extra tételhez kapcsolódó teszteset kijavítása
- SPARK-51664 A TIME adattípus támogatása a hash kifejezésben
- SPARK-51819 A pyspark-errors tesztmodul frissítése a hiányzó tesztek belefoglalásához
-
SPARK-50751 A megfelelő hibafeltétel hozzárendelése a következőhöz:
_LEGACY_ERROR_TEMP_1305 -
SPARK-50973 Elavult API-használat törlése a
avro.Schema#toString(boolean) -
SPARK-50908 A pelyhes TTL-teszt letiltása a következőben:
test_pandas_transform_with_state.py - SPARK-50811 A JVM-profiler illesztőprogramon való engedélyezésének támogatása
- SPARK-50808 Javítás egy problémánál a writeAll funkcióban, ahol a kevert típusok nem íródtak le megfelelően.
- SPARK-51780 Az eljárás leírásának implementálása
-
SPARK-50370 Codegen-támogatás a következőhöz:
json_tuple - SPARK-50756 Hibaosztály használata a SparkConf.validateSettings kivételeihez
-
SPARK-50805 A metódus áthelyezése
nameForAppAndAttempt-bólo.a.s.u.Utils-ba -
SPARK-51812 Egyes metódusok redundáns paramétereinek eltávolítása a következő helyen:
QueryExecution - SPARK-50819 Spark-profiler modul átdolgozása
- SPARK-51547 Név hozzárendelése a hibafeltételhez: _LEGACY_ERROR_TEMP_2130
- SPARK-48538 A bonecp által okozott HMS-memóriaszivárgás elkerülése
-
SPARK-51176 Konzisztenciának való megfelelés váratlan hibák esetén PySpark Connect
<>Classic - SPARK-50773 Strukturált naplózás letiltása alapértelmezés szerint
- SPARK-50616 Fájlkiterjesztési lehetőség hozzáadása a CSV DataSource-íróhoz
- SPARK-50624 TimestampNTZType hozzáadása a ColumnarRow/MutableColumnarRow elemhez
- SPARK-51590 A TIME letiltása a beépített fájlalapú adatforrásokban
- SPARK-49886 Lekérdezési szint hibatesztje a RocksDB V2 formátumhoz
- SPARK-50823 Cloudpickle frissítése 3.1.0-ról 3.1.1-re
-
SPARK-50780 Használj
overrideStdFeaturesasetFeatureMaskhelyett aJacksonParser-ben. - SPARK-50621 A Cloudpickle frissítése a 3.1.0-ra
-
SPARK-50719 A PySpark támogatása
interruptOperation -
SPARK-50545
AccessControlExceptionakkor is el kell dobni, haignoreCorruptFilesengedélyezve van - SPARK-51517 A TIME adattípus támogatása a Hive-eredményekben
- SPARK-47856 Dokumentumleképezés – Spark SQL-adattípusok az Oracle-ből, és tesztek hozzáadása
-
SPARK-46066 A Sztring API helyett használja az Elválasztó API-t a
DefaultPrettyPrinter -
SPARK-50718 A PySpark támogatása
addArtifact(s) - SPARK-51497 Az alapértelmezett időformátum hozzáadása
- SPARK-51488 A TIME kulcsszó támogatása adattípusként
- SPARK-51273 A Spark Connect hívási eljárása kétszer futtatja az eljárást
- SPARK-51092 Hagyja ki a v1 FlatMapGroupsWithState teszteket időtúllépéssel a nagy endián platformokon
- SPARK-50606 NPE javítása nem inicializált SessionHolder esetén
- SPARK-49530 Kördiagram alábrák támogatása a PySpark ábrázolásban
- SPARK-50357 Megszakítás (Címke|Összeset) API-k támogatása a PySparkhoz
- SPARK-51290 Alapértelmezett értékek kitöltésének engedélyezése DSv2-írásokban
- SPARK-50485 SparkThrowable kibontása a (nem ellenőrzött)ExecutionExceptionben, amelyet a tableRelationCache dob
- SPARK-51513 A RewriteMergeIntoTable szabály kijavítása megoldatlan tervet eredményez
- SPARK-51482 Támogatni szövegből időformátumra való átalakítást
- SPARK-51462 A TIME adattípus írható literáljainak támogatása
- SPARK-51454 Típuskonverzió támogatás az időről szövegre
-
SPARK-51447 Hozzáadás
stringToTimeésstringToTimeAnsi - SPARK-51775 Normalizálja a LogicalRelation és HiveTableRelation elemeket a NormalizePlan által
-
SPARK-51791
ImputerModeladatkeret helyett tömbökkel tárolja az együtthatókat - SPARK-51442 Időformátum-formázók hozzáadása
-
SPARK-51384
java.time.LocalTimekülső típusként való támogatásaTimeType-nek/-nak - SPARK-51747 Az adatforrás gyorsítótárazott verziójának figyelembe kell vennie a beállításokat
- SPARK-51774 GRPC-állapotkód hozzáadása a Python Connect GRPC-kivételéhez
- SPARK-51660 Az MDC támogatásának hiányában való elegáns kezelése
- SPARK-51296 Támogatás sérült adatok gyűjtéséhez singleVariantColumn módban.
- SPARK-45907 A ProcfsMetricsGetterben a Java9+ ProcessHandle API-k használata aProcessTree kiszámításához
-
SPARK-51342 Hozzáad
TimeType - SPARK-51769 MaxRecordsPerOutputBatch hozzáadása az Arrow kimeneti köteg rekordjainak számának korlátozásához
- SPARK-51350 Megjelenítési eljárások implementálása
- SPARK-51711 Memóriaalapú MLCache kiürítési szabályzat
-
SPARK-51178 Megfelelő PySpark-hiba kibocsátása ahelyett, hogy
SparkConnectGrpcException - SPARK-51738 IN al-lekérdezés struktúratípussal
- SPARK-51714 Hibafeldolgozási teszt hozzáadása az állapot-tároló ellenőrzési pont V2 formátumának teszteléséhez
- SPARK-51704 Szükségtelen gyűjtési művelet kiküszöbölése
- SPARK-51512 Null MapStatus szűrése az shuffle-adatok ExternalShuffleService szolgáltatással való törlésekor
- SPARK-49308 UserDefinedAggregateFunction támogatása a Spark Connect Scala-ügyfélben
- SPARK-50091 Az IN-lekérdezés bal oldali operandusában lévő összesítések eseteinek kezelése
- SPARK-50265 Spark.udf.registerJavaUdf támogatása a Connectben
- SPARK-49273 A Spark Connect Scala-ügyfél forrástámogatása
- SPARK-51187 A SPARK-49699-ben bevezetett helytelen konfiguráció fokozatos megszüntetésének megvalósítása
- SPARK-51650 Támogatás a gépi tanulás gyorsítótárazott objektumainak kötegelt törléséhez
- SPARK-51619 UDT-bemenet/kimenet támogatása a Nyíloptimalizált Python UDF-ben
-
SPARK-51333 Kicsomagolás
InvocationTargetExceptiondobvaMLUtils.loadOperator - SPARK-51566 A Python UDF nyomkövetési fejlesztése
- SPARK-51393 Visszatérés a normál Python UDF-hez, ha az Arrow nincs megtalálva, de az Arrow-optimalizált Python UDF-ek engedélyezve vannak.
- SPARK-49960 A Custom ExpressionEncoder támogatása és a TransformingEncoder javításai
- SPARK-51380 A visitSQLFunction és a visitAggregateFunction hozzáadása a V2ExpressionSQLBuilder rugalmasságának javításához
-
SPARK-51600 Előfűzzük az osztályokat
sql/hiveéssql/hive-thriftserver, amikorisTesting || isTestingSqligaz. -
SPARK-51070 A ValidateExternalType beállítása helyett használható
scala.collection.Set - SPARK-50759 Elavulttá nyilvánít néhány régi katalógus API-t
- SPARK-50994 RDD-átalakítás végrehajtása nyomon követett végrehajtás keretében
- SPARK-51466 A Hive beépített UDF-ek inicializálásának kiküszöbölése a Hive UDF-ek értékelése során
- SPARK-51491 A boxplot egyszerűsítése subquery API-kkal
-
SPARK-51175 Az
Masterillesztőprogramok eltávolításakor eltelt idő megjelenítése - SPARK-50334 A PB-fájl leírójának olvasására szolgáló gyakori logika kinyerése
- SPARK-50483 A BlockMissingException akkor is eldobható, ha az ignoreCorruptFiles engedélyezve van
- SPARK-50286 SQL-beállítások helyes propagálása a WriteBuilderbe
- SPARK-51023 RPC-kivétel esetén távoli cím naplózása
- SPARK-47611 Elavult kód törlése a MySQLDialect.getCatalystType-ban
- SPARK-49229 Scala UDF-kezelés deduplikálása a SparkConnectPlannerben
- SPARK-50557 A RuntimeConfig.contains(..) támogatása a Scala SQL Interface-ben
- SPARK-51471 RatePerMicroBatchStream – osztályozza az ASSERT hibát, ha az eltolás/időbélyeg a startOffsetben nagyobb, mint az endOffset
- SPARK-50473 A klasszikus oszlopkezelés egyszerűsítése
- SPARK-49286 Az Avro/Protobuf függvények áthelyezése az SQL/API-ba
- SPARK-49087 Az UnresolvedFunction megkülönböztetése a belső függvények meghívása során
-
SPARK-50422 Az
Parameterized SQL queriesés aSparkSession.sqlAPI GA létrehozása - SPARK-49249 "Az új alapértelmezett összetevő-kezelő konfigurációjának hozzáadása a PySparkban az engedélyezési listához"
- SPARK-50366 Felhasználó által definiált címkék elkülönítése szálszinten a SparkSession esetében a klasszikus verzióban
- SPARK-49436 Az SQLContext általános felülete
- SPARK-51551 Az algoritmus finomhangolásához engedélyezze a gyorsítótár cseréjét a mentés/betöltés használatával
-
SPARK-51599 Optimalizál
ps.read_excelnagy Excel-fájlhoz - SPARK-51118 Az ExtractPythonUDFs javítása a láncolt UDF bemeneti típusok tartalékként való ellenőrzéséhez
- SPARK-50395 Helytelen URI-szintaxis javítása a Windowsban
-
SPARK-50708 Összetevő-erőforrások törlése a példány csoportházirend-objektumán
ArtifactManager - SPARK-51076 Arrow Python UDF-tartalék UDT bemeneti és kimeneti típusok esetén
- SPARK-50243 Az ArtifactManagerhez használt gyorsítótárazott osztálybetöltő
- SPARK-49249 Összetevők elkülönítése a Klasszikus Sparkban
- SPARK-50821 A Py4J frissítése a 0.10.9.8-ról a 0.10.9.9-re
- SPARK-51591 A ThreadPoolExecutor hiba kijavítása a Python 3.13 napi tesztjében
-
SPARK-40353 Az index null értékű eltérésének javítása a következőben:
ps.read_excel - SPARK-42746 LISTAGG függvény implementálása
- SPARK-50102 Adja hozzá a hiányzó nyilvános SQL-metódusokhoz szükséges shims-eket.
- SPARK-50513 EncoderImplicits szétválasztása az SQLImplicits-ekből, és segédobjektum biztosítása a StatefulProcessor-ban.
-
SPARK-51567 Javítás
DistributedLDAModel.vocabSize - SPARK-49569 Shims hozzáadása a SparkContext és az RDD támogatásához
- SPARK-51473 Az ml-ből átalakított adatkeret a modellre mutató hivatkozást tartalmaz
- SPARK-51340 Modellméret becslése
- SPARK-51474 Ne szúrjon be redundáns ColumnarToRowExec elemet az oszlopos és a sorkimenetet támogató csomóponthoz
-
SPARK-51445 A soha nem változtatott
varmegváltoztatásaval - SPARK-50618 A DataFrameReader és a DataStreamReader jobban kihasználja az elemzőt.
- SPARK-51097 A RocksDB állapottároló utolsó feltöltött pillanatkép-verziópéldányának metrikáinak újbóli bevezetése
- SPARK-49418 Megosztott munkamenetszál helyi beállításai
-
SPARK-50096 Rendelje hozzá a megfelelő hibafeltételt a következőhöz
_LEGACY_ERROR_TEMP_2150:TUPLE_SIZE_EXCEEDS_LIMIT - SPARK-50264 Hiányzó metódusok hozzáadása a DataStreamWriterhez
- SPARK-49434 Összesítők áthelyezése az SQL/API-ba
- SPARK-51451 Javítsa ki az ExtractGeneratort, hogy megvárja az UnresolvedStarWithColumns megoldását
- SPARK-49416 Megosztott DataStreamReader-felület hozzáadása
- SPARK-49429 Megosztott DataStreamWriter-felület hozzáadása
- SPARK-49282 Hozzon létre egy megosztott SparkSessionBuilder felületet.
- SPARK-49415 SQLImplicits áthelyezése sql/api-ba
- SPARK-51443 A singleVariantColumn javítása a DSv2-ben és a readStreamben.
- SPARK-49369 Implicit oszlopkonverziók hozzáadása
- SPARK-49417 Megosztott StreamingQueryManager-felület hozzáadása
- SPARK-51079 Nagy változótípusok támogatása pandas UDF-ben, createDataFrame és toPandas with Arrow
- SPARK-51277 0-arg implementáció implementálása a Nyíloptimalizált Python UDF-ben
- SPARK-50601 Támogatás a withColumns / withColumnsRenamed használatára az al-lekérdezésekben
- SPARK-49479 Az időzítő nem démon szálának megszakítása a BarrierCoordinator leállításakor
- SPARK-51379 A treeAggregate végleges összesítésének áthelyezése illesztőprogramról végrehajtóra
- SPARK-49712 EncoderFor eltávolítása a connect-client-jvm-ből
- SPARK-49424 Encoders.scala konszolidálása
- SPARK-49574 Hibás delta-megosztási tesztek letiltása a főkiszolgálón
- SPARK-51409 Hibabesorolás hozzáadása a változásnapló-író létrehozási útvonalában
- SPARK-49568 Saját típus eltávolítása az adatkészletből
- SPARK-51433 A kiadási szkript módosítása a pyspark-client kibocsátásához
- SPARK-51422 A JVM-Python adatcsere megszüntetése a CrossValidatorban
-
SPARK-51425 Ügyfél API hozzáadása egyéni beállításhoz
operation_id - SPARK-49284 Megosztott katalógusfelület létrehozása
- SPARK-50855 Spark Connect-támogatás a Scala TransformWithState szolgáltatásához
- SPARK-50694 Támogatás átnevezésre alkérdezésekben
- SPARK-50880 Új visitBinaryComparison metódus hozzáadása a V2ExpressionSQLBuilderhez
- SPARK-51282 A OneVsRestModel-átalakítás optimalizálása a JVM-Python adatcsere megszüntetésével
- SPARK-51079 Nagy változótípusok támogatása pandas UDF-ben, createDataFrame és toPandas with Arrow
- SPARK-51383 Kerülje az RPC-hívások indítását, ha az ügyfelek már le vannak állítva
-
SPARK-51227 PySpark Connect
_minimum_grpc_versionjavítása az 1.67.0-hoz - SPARK-51362 Módosítsa a JSON-t a NextIterator API használatára a szomszédos rekordfüggőség megszüntetéséhez
-
SPARK-51375 Naplóüzenetek letiltása
SparkConnect(Execution|Session)Manager.periodicMaintenance - SPARK-50393 A Klasszikus Spark és a Spark Connect általános TableArg-jának bemutatása
- SPARK-50133 A DataFrame táblaargumentumra konvertálásának támogatása a Spark Connect Python-ügyfélben
- SPARK-49574 Az ExpressionEncoder nyomon követi az azt létrehozó AgnosticEncodert
- SPARK-49422 GroupByKey hozzáadása az sql/api-hoz
-
SPARK-51381 Jelenítse meg
Session IDaSpark Connect Sessionlapon - SPARK-51316 Engedélyezze az Arrow kötegeket bájtban, nem a sorok számában
- SPARK-50134 DataFrame API támogatás a SCALAR és EXISTS részlekérdezésekhez a Spark Connectben.
- SPARK-50392 DataFrame konvertálás táblaargumentumra a Klasszikus Sparkban
-
SPARK-50553 Érvénytelen csomagüzenet küldése
InvalidPlanInput - SPARK-51322 Jobb hibaüzenet a folyamatos lekérdezések kifejezéseihez
- SPARK-51281 A DataFrameWriterV2-nek tiszteletben kell tartania az elérési utat
- SPARK-50856 Spark Connect-támogatás a TransformWithStateInPandashoz Pythonban
-
SPARK-51333 Kibontás
InvocationTargetExceptionáltal dobvainvokeMethod - SPARK-50134 DataFrame API támogatása oldalirányú csatlakozáshoz a Spark Connectben
- SPARK-51083 JavaUtils módosítása a InterruptedExceptions nyelésének elmaradásához
- SPARK-49413 Megosztott RuntimeConfig-felület létrehozása (nyomon követés)
- SPARK-49413 Megosztott RuntimeConfig-felület létrehozása
- SPARK-50993 NullDataSourceOption áthelyezése a QueryCompilationErrors-ből a QueryExecutionErrors-be
-
SPARK-51329 Adjon hozzá
numFeaturesa fürtözési modellekhez -
SPARK-51305 Javít
SparkConnectPlanExecution.createObservedMetricsResponse - SPARK-51097 Állapottár-példánymetrikák hozzáadása a legutóbb feltöltött pillanatkép-verzióhoz a RocksDB-ben
- SPARK-49425 Megosztott DataFrameWriter létrehozása
- SPARK-50655 Virtuális oszlopcsaládhoz kapcsolódó leképezés áthelyezése db-rétegbe kódoló helyett
- SPARK-48530 Helyi változók támogatása az SQL Scriptingben
- SPARK-51284 Az SQL-szkript végrehajtásának javítása üres eredmény esetén
- SPARK-49085 A Protobuf-függvények speciális burkolatának eltávolítása a Connectben
- SPARK-50881 Ha lehetséges, használjon gyorsítótárazott sémát a connect dataframe.py fájlban.
- SPARK-51275 Munkamenet propagálása a Python readwrite-ben
- SPARK-51109 CTE az al-lekérdezési kifejezésben csoportosítási oszlopként
- SPARK-50598 Paraméterek hozzáadása a rekurzív CT-k későbbi implementálásának engedélyezéséhez
- SPARK-51202 A munkamenet átadása meta-algoritmus python-írókban
- SPARK-51215 Segédfüggvény hozzáadása az attr segédmodell meghívásához
-
SPARK-51214 Ne távolítsa el túl gyorsan a gyorsítótárazott modelleket a következőhöz:
fit_transform - SPARK-51237 API-részletek hozzáadása az új transformWithState segítő API-khoz
-
SPARK-51192 Közzéteheti a következő
processWithoutResponseObserverForTestinghelyen:SparkConnectPlanner - SPARK-51217 ML-modell segédkonstruktorának tisztítása
- SPARK-51218 Kerülje a map/flatMap használatát a NondeterministicExpressionCollection kifejezésgyűjteményben
- SPARK-50953 Nem literális elérési utak támogatásának hozzáadása a VariantGetben
- SPARK-50132 DataFrame API hozzáadása oldalirányú illesztésekhez
- SPARK-51190 TreeEnsembleModel.treeWeights javítása
- SPARK-50945 A Summarizer és az SummaryBuilder támogatása a Connecten
- SPARK-51142 ML (gépi tanulás) protobufs tisztítása
-
SPARK-51139 Hibaosztály pontosítása
MLAttributeNotAllowedException -
SPARK-51080 Mentés/betöltés javítása
PowerIterationClustering - SPARK-51100 Transzformátorburkolók cseréje segédmodell attribútumkapcsolatokkal
-
SPARK-51091 A következő alapértelmezett paramjainak javítása:
StopWordsRemover -
SPARK-51089 Támogatás
VectorIndexerModel.categoryMapscsatlakozáshoz - SPARK-50954 Támogatás a kliensoldali modellútvonal felülírásának metaalgoritmusokhoz
-
SPARK-50975 Támogatás
CountVectorizerModel.from_vocabularycsatlakozáshoz -
SPARK-50958 Támogatás
Word2VecModel.findSynonymsArraycsatlakozáshoz -
SPARK-50930 Támogatás
PowerIterationClusteringa Csatlakozás szolgáltatásban - SPARK-51157 Hiányzó @varargs Scala annotáció hozzáadása a Scala függvény API-khoz
- SPARK-51155 Teljes futási idő megjelenítése a leállítás után
-
SPARK-51143 Rögzítés
plotly<6.0.0éstorch<2.6.0 -
SPARK-50949 Támogatási segédmodell bemutatása
StringIndexModel.from_labels_xxx - SPARK-51131 Kivétel kiírása, ha az SQL-szkript a parancson belül EXECUTE IMMEDIATE található
-
SPARK-51078 A py4j-hívás javítása
StopWordsRemover - SPARK-50944 Támogatás a Connect szolgáltatásban
- SPARK-50602 A transzponálás javítása, hogy megfelelő hibaüzenetet jelenítsen meg, amikor érvénytelen indexoszlopokat adnak meg.
- SPARK-50943 Támogatás a Connect szolgáltatásban
- SPARK-50234 A DataFrame API transzponálásának javítása és tesztelése
- SPARK-50942 Támogatás a Connect szolgáltatásban
- SPARK-48353 A kivételkezelési mechanizmus bemutatása az SQL Scriptingben
- SPARK-51043 Részletes felhasználói naplózás a Spark Connect foreachBatch szolgáltatáshoz
- SPARK-50799 Az rlike, a length, az octet_length, a bit_length és a transform docstring finomítása
- SPARK-51015 Az RFormulaModel.toString támogatása a Connecten
- SPARK-50843 Támogatja egy új modell létrehozását a meglévőből
- SPARK-50969 Javítás kapcsolat közben
- SPARK-50899 PrefixSpan támogatása csatlakozáskor
- SPARK-51060 Támogatás a Connect-en
- SPARK-50974 Támogatás hozzáadása a foldCol számára a CrossValidatorban a csatlakozás során
- SPARK-50922 A OneVsRest támogatása a Connecten
- SPARK-50812 Támogatás hozzáadása a polinomiális kiterjesztéshez
- SPARK-50923 FmClassifier és FMRegressor támogatása a Connecten
- SPARK-50918 Adattovábbítás olvasásának/írásának átalakítása
- SPARK-50938 A VectorSizeHint és a VectorSlicer támogatása a Connecten
- SPARK-51005 A VectorIndexer és az ElementwiseProduct támogatása a Connecten
- SPARK-51014 Az RFormula támogatása a csatlakozáshoz
- SPARK-50941 A TrainValidationSplit támogatásainak hozzáadása
- SPARK-51004 Támogatja az IndexStringet
- SPARK-51003 LSH-modellek támogatása a Connecten
- SPARK-50924 Az AFTSurvivalRegression és az IsotonicRegression támogatása a Connecten
- SPARK-50921 TöbbrétegűPerceptronClassifier támogatása a Connecten
-
SPARK-50995 A KMeans és a BisectingKMeans támogatása
clusterCenters - SPARK-50940 Támogatja a CrossValidator/CrossValidatorModel kapcsolatot
-
SPARK-50929 Támogatás
LDAa Connect szolgáltatásban - SPARK-50925 A GeneralizedLinearRegression támogatása a Connecten
- SPARK-50988 A becslő és modell uid-inkonzisztenciáinak javítása
- SPARK-50989 NGram, Normalizer és interakció támogatása csatlakozáskor
- SPARK-50937 Támogatás a Connect felületen
- SPARK-51049 S3A-vektor IO-küszöbértékének növelése a tartományegyesítéshez
- SPARK-50812 TargetEncoderModel támogatása a Connecten
- SPARK-50920 A NaiveBayes támogatása a Connecten
- SPARK-50936 A HashingTF, az IDF és a FeatureHasher támogatása csatlakozáskor
- SPARK-50934 A CountVectorizer és a OneHotEncoder támogatása a Connecten
- SPARK-49287 Streamosztályok áthelyezése az SQL/API-ba
- SPARK-50932 Támogatási gyűjtő a Connecten
- SPARK-50933 Támogatási funkcióválasztók a Connecten
- SPARK-50931 A Binarizer támogatása a csatlakozáshoz
- SPARK-50935 DCT támogatása a kapcsolódás során
- SPARK-50963 Tokenizerek, SQLTransform és StopWordsRemover támogatása a Connecten
- SPARK-50928 A GaussianMixture támogatása a Connecten
- SPARK-49383 A DataFrame API transzponálása támogatása
- SPARK-50939 A Word2Vec támogatása a Csatlakozás szolgáltatásban
- SPARK-49249 Új, címkével kapcsolatos API-k hozzáadása a Spark Core-hoz való visszacsatlakozásban
- SPARK-50919 LinearSVC támogatása csatlakozáshoz
- SPARK-50883 Több oszlop módosításának támogatása ugyanabban a parancsban
- SPARK-50918 Csatlakozási csővezeték támogatása
-
SPARK-50826 A kezelés módjának újrabontása
ALLOWED_ATTRIBUTES - SPARK-49427 Megosztott felület létrehozása a MergeIntoWriterhez
- SPARK-49414 Megosztott DataFrameReader-felület hozzáadása
- SPARK-50948 StringIndexer/PCA támogatás hozzáadása a Connecthez
-
SPARK-50901 Támogasson transzformátort
VectorAssembler - SPARK-50879 Funkcióskálázók támogatása a Connecten
- SPARK-50130 DataFrame API-k hozzáadása skalár és exist al-lekérdezésekhez
- SPARK-50075 DataFrame API-k hozzáadása táblaértékű függvényekhez
- SPARK-49426 Megosztott felület létrehozása a DataFrameWriterV2-hez
-
SPARK-50898 Támogatás
FPGrowthcsatlakozáshoz - SPARK-50844 A modellt a ServiceLoader tölti be a betöltés során.
- SPARK-50884 Az isLargerBetter támogatása az értékelőben
- SPARK-50959 A JavaWrapper kivételének elnyelése
- SPARK-50558 Egyszerű karakterlánc bevezetése az ExpressionSet számára
- SPARK-49422 Megosztott felület létrehozása a KeyValueGroupedDatasethez
- SPARK-50878 Az ALS támogatása a Connecten
- SPARK-50897 Példánylétrehozás elkerülése a ServiceLoaderben
- SPARK-50877 A KMeans & BisectingKMeans támogatása a Connecten
- SPARK-50876 Fa regresszorok támogatása a Connecten
-
SPARK-50874 Támogatás
LinearRegressioncsatlakozáshoz - SPARK-50869 Támogatási kiértékelők az ML Connecten
-
SPARK-50851 Fejezze ki az ML paramétereket
proto.Expression.Literal - SPARK-50825 Faosztályozók támogatása az ML Connectben
- SPARK-50827 Támogató beépülő modul
- SPARK-49907 Spark.ml támogatása a Connecten
-
SPARK-50968 Javítsa ki a
Column.__new__használatát. - SPARK-49028 Megosztott SparkSession létrehozása
- SPARK-49421 Megosztott RelationalGroupedDataset-felület létrehozása
- SPARK-50804 to_protobuf() nem dobhat MatchError-t
- SPARK-50900 VectorUDT és MatrixUDT hozzáadása a ProtoDataTypeshoz
-
SPARK-50579 Javítás
truncatedString - SPARK-50875 RTRIM rendezési szabályok hozzáadása a TVF-hez
- SPARK-49420 Megosztott felület hozzáadása a DataFrameNaFunctionshez
- SPARK-50669 A TimestampAdd kifejezés aláírásának módosítása
- SPARK-46615 Az s.c.immutable.ArraySeq támogatása a ArrowDeserializersben
- SPARK-49423 Megfigyelés konszolidálása az SQL/API-ban
- SPARK-49086 Ml-függvényregisztráció áthelyezése a SparkSessionExtensions szolgáltatásba
- SPARK-49419 Megosztott DataFrameStatFunctions létrehozása
- SPARK-50735 Az ExecuteResponseObserver hibája végtelen újracsatlakozási kéréseket eredményez
- SPARK-50522 Határozatlan sorbarendezés támogatása
- SPARK-50893 A UDT.DataType megadható opcióként
- SPARK-50685 A Py4J teljesítményének javítása a getattr használatával
-
SPARK-50742 Beállítás eltávolítása
spark.hadoop.fs.s3a.connection.establish.timeout - SPARK-50714 A TransformWithState sémafejlődésének engedélyezése Avro-kódolás használatakor
- SPARK-49029 Megosztott adathalmaz-felület létrehozása
-
SPARK-50263 Csere erre
System.currentTimeMillis:System.nanoTime - SPARK-50525 InsertMapSortInRepartitionExpressions Optimizer-szabály definiálása
- SPARK-50561 Egységes SQL-függvény típuskényszerítésének és határellenőrzésének javítása
- SPARK-50707 Karakter/varchar típusú átalakítás engedélyezése
- SPARK-49027 Oszlop API megosztása a Class és a Connect között
- SPARK-49632 Távolítsa el az ANSI konfigurációs javaslatot a CANNOT_PARSE_TIMESTAMP üzenetből
- SPARK-50529 Karakter/varchar viselkedésének módosítása a konfiguráció alatt
- SPARK-50600 Halmaz elemzése elemzési hiba esetén
- SPARK-50789 A beírt aggregációk bemeneteit elemezni kell
- SPARK-49025 Oszlop implementálásának agnosztikussá tétele
- SPARK-50738 Frissítés feketére a 23.12.1-re
- SPARK-49883 State Store Checkpoint Structure V2 RocksDB-vel történő integráció
- SPARK-50778 MetadataColumn hozzáadása a PySpark DataFrame-hez
- SPARK-49565 Az automatikusan létrehozott kifejezési aliasok fejlesztése pipe SQL operátorokkal
- SPARK-50772 Tábla aliasainak megőrzése az EXTEND, DROP operátorok után SET
- SPARK-50690 Eltérés javítása a lekérdezés kimenetének idéző megjelenítésében DESCRIBE TABLE
- SPARK-50675 A táblázat- és nézetszintű rendezések támogatása
- SPARK-50480 CharType és VarcharType kiterjesztése a StringType-ból
-
SPARK-50715
SparkSession.Builderbeállítja a konfigurációkat köteg módban - SPARK-50693 A TypedScalaUdf bemeneteit elemezni kell
- SPARK-50710 Opcionális ügyfél-visszakapcsolódás támogatása a munkamenetekhez a kiadás után
- SPARK-50596 Py4J frissítése 0.10.9.7-ről 0.10.9.8-ra
- SPARK-50661 Adjon hozzá visszamenőleges kompatibilitást a régi ügyfél FEB-hez.
-
SPARK-50515 Írásvédett felület hozzáadása
SparkConf - SPARK-50642 A FlatMapGroupsWithState állapotséma javítása spark connectben, ha nincs kezdeti állapot
- SPARK-50702 A regexp_count, regexp_extract és regexp_extract_all docstringjeinek pontosítása
- SPARK-50692 RPAD pushdown támogatás hozzáadása
- SPARK-50699 DDL-sztring elemzése és létrehozása egy megadott munkamenettel
- SPARK-50573 Állapotséma-azonosító hozzáadása állapotsorokhoz a sémaváltozás érdekében
-
SPARK-50311 Támogat
(add|remove|get|clear)Tag(s)API-k a PySpark számára - SPARK-50661 A Spark Connect Scala foreachBatch implementációjának javítása. A Dataset[T] támogatására.
- SPARK-50696 Py4J-hívás optimalizálása DDL-elemzési metódushoz
- SPARK-50687 A logika optimalizálása a DataFrameQueryContext veremkövetkezéseinek lekéréséhez
- SPARK-50681 A MapInXXX és az ApplyInXXX esetében az elemzett séma gyorsítótárazása
- SPARK-50578 Az állapot metaadatainak új verziójának támogatása a TransformWithStateInPandashoz
- SPARK-50405 Összetett adattípusok rendezési típusának megfelelő kezelése
- SPARK-50615 Variáns átküldése az ellenőrzésre.
- SPARK-50599 Hozza létre a DataEncoder tulajdonságot, amely lehetővé teszi az Avro és unsafeRow kódolást
- SPARK-50076 Naplókulcsok javítása
- SPARK-50339 A változásnapló engedélyezése az életútadatok tárolásához
- SPARK-50540 Javítsd ki a StatefulProcessorHandle karaktersémát
-
SPARK-50544 Megvalósít
StructType.toDDL -
SPARK-50528 Váltás
InvalidCommandInputa közös modulra - SPARK-50063 A Variant támogatása a Spark Connect Scala-ügyfélben
- SPARK-50310 Jelző hozzáadása a DataFrameQueryContext letiltásához a PySparkban
- SPARK-50310 Jelző hozzáadása a DataFrameQueryContext letiltásához a PySparkban
- SPARK-50032 Teljesen megadott kollációs név használatának engedélyezése
- SPARK-50466 Karakterlánc függvények dokumentumszövegének finomítása – 1. rész
- SPARK-49676 Operátorok láncolásának támogatása a transformWithStateInPandas API-ban
-
SPARK-50081 Codegen-támogatás (
XPath*az Invoke & RuntimeReplaceable szerint) - SPARK-46725 DAYNAME függvény hozzáadása
- SPARK-50067 A SchemaOfCsv codegen-támogatása (az Invoke & RuntimeReplaceable szerint)
- Spark-49873 – Az egyesítés utáni hiba javítása hibateszteléskor
- SPARK-50270 Egyéni állapotmetrikák hozzáadva a TransformWithStateInPandashoz
-
SPARK-50381 Támogat
spark.master.rest.maxThreads - SPARK-50427 Configure_logging nyilvános API-ként való közzététel
- SPARK-50173 A pandas-kifejezések további adattípusok elfogadásának kérése
-
SPARK-50169 A teljesítmény javítása
RegExpReplace - SPARK-50238 Variant-támogatás hozzáadása a PySpark UDFs/UDTFs/UDAFs és Python UC UDF-jeiben
- SPARK-50190 A Numpy közvetlen függőségének eltávolítása a hisztogramból
- SPARK-50183 A Pandas API és a PySpark Plotting belső funkcióinak egységesítése
-
SPARK-50170 Ugrás
_invoke_internal_function_over_columnside:pyspark.sql.utils - SPARK-50036 SPARK_LOG_SCHEMA belefoglalása a REPL-rendszerhéj környezetében
-
SPARK-50141 Oszloptípus argumentumainak létrehozása
lpadésrpadelfogadása - SPARK-49954 A SchemaOfJson codegen-támogatása (az Invoke &RuntimeReplaceable szerint)
-
SPARK-50098 Frissítse a minimális verziót
googleapis-common-protosaz 1.65.0-ra - SPARK-50059 API-kompatibilitás ellenőrzése strukturált streamelési I/O-hoz
- SPARK-50241 NullIntolerant Mixin cseréje az Expression.nullIntolerant Metódusra
- SPARK-49849 API-kompatibilitás ellenőrzése strukturált streamelési lekérdezéskezeléshez
- SPARK-49851 API-kompatibilitás ellenőrzése a Protobufhoz
- SPARK-49850 API-kompatibilitás ellenőrzése az Avro-hoz
- SPARK-50039 API-kompatibilitás ellenőrzése csoportosításhoz
- SPARK-50023 API-kompatibilitás ellenőrzése a Functionsben
- SPARK-50030 API-kompatibilitás ellenőrzése a Windowshoz
- SPARK-50002 API-kompatibilitás ellenőrzése az I/O-hoz
- SPARK-49848 API-kompatibilitás ellenőrzése katalógushoz
-
SPARK-50022 Javítás
MasterPageaz alkalmazás felhasználói felületére mutató hivatkozások elrejtéséhez, ha a felhasználói felület le van tiltva -
SPARK-50021 Javítás
ApplicationPageaz alkalmazás felhasználói felületére mutató hivatkozások elrejtéséhez, ha a felhasználói felület le van tiltva -
SPARK-49990 A teljesítmény javítása
randStr - SPARK-50380 A ReorderAssociativeOperatornak tiszteletben kell tartania a szerződést a ConstantFoldingben
- SPARK-50330 Tippek hozzáadása rendezési és ablakelemekhez
- SPARK-49609 API-kompatibilitás-ellenőrzés hozzáadása a Klasszikus és a Connect között
-
SPARK-49773 Nem kezelt Java-kivétel a
make_timestamp()miatt rossz időzónával - SPARK-49345 Győződjön meg arról, hogy az aktuálisan futó Spark-munkamenetet használja
- SPARK-49368 Kerülje a protobuf lite osztályok közvetlen elérését
- SPARK-50056 A ParseUrl codegen-támogatása (az Invoke &RuntimeReplaceable által)
-
SPARK-49119 Az 1. és a 2. v közötti szintaxis
show columnsinkonzisztencia javítása - SPARK-50144 A metrikaszámítás korlátozásának kezelése DSv1 streamelési forrásokkal
- SPARK-49962 Az AbstractStringTypes osztályhierarchiájának egyszerűsítése
- SPARK-50327 Az egyszeres analizátorban újra felhasználható függvényfeloldás faktorozása
- SPARK-48775 Az SQLContext cseréje SparkSession-ra az STS-ben
- SPARK-50325 Az egylépéses elemzőben újra felhasználható aliasfeloldás faktorozása
- SPARK-48123 Állandó táblaséma megadása strukturált naplók lekérdezéséhez
- SPARK-50055 TryMakeInterval alternatíva hozzáadása
-
SPARK-49312 Hibaüzenet javítása a következőhöz:
assertSchemaEqual - SPARK-38912 A classmethod és a tulajdonság megjegyzésének eltávolítása
- SPARK-50112 Az Avro kódolás használatának engedélyezése a TransformWithState operátor számára
- SPARK-50260 Spark Connect-végrehajtás és -munkamenet-kezelés újrabontása és optimalizálása
- SPARK-50196 A Python hibakörnyezetének javítása a megfelelő környezet használatához
- SPARK-50167 A PySpark hibaüzenetek és importálások ábrázolásának javítása
-
SPARK-50085 Készítsen
lit(ndarray)np.int8 alkalmazásával, tiszteletben tartva a numpy adattípust. - SPARK-50273 A RocksDB zárolási és kiadási eseteinek naplózásának javítása
- SPARK-50163 Kijavítottuk a RocksDB extra acquireLock kiadását a befejezési figyelő miatt
- SPARK-49770 A RocksDB SST-fájlleképezés kezelésének javítása, valamint az ugyanazon verzió meglévő pillanatképpel való újratöltésével kapcsolatos probléma megoldása
- SPARK-50232 "protobuf==5.28.3" hozzáadása a dev/requirements.txt
-
SPARK-50231 Tegye a függvényt úgy, hogy elfogadjon egy oszlopot
instr - SPARK-50028 Globális zárolások cseréje a Spark Connect-kiszolgáló figyelőjében finomhangolt zárolásokra
- SPARK-50077 Új mintaobjektum bevezetése a LogicalRelationhoz az alapértelmezett teljes params minta elkerülése érdekében
- SPARK-50128 Állapotalapú processzorkezelő API-k hozzáadása implicit kódolókkal a Scalában
- SPARK-49411 Az állapottár ellenőrzőpont azonosítójának kommunikációja az illesztőprogram és az állapotalapú operátorok között
- SPARK-50054 Hisztogramdiagramok támogatása
- SPARK-49854 Ne másolja a klaszterkönyvtárakat az Artifact Manager klónozásakor
- SPARK-50071 Try_make_timestamp(_ltz és _ntz) és kapcsolódó tesztek hozzáadása
- SPARK-50024 Váltás a naplózó használatára a figyelmeztetések modul helyett az ügyfélben
-
SPARK-50174 A
UnresolvedCatalogRelationfelbontás különválasztása -
SPARK-49734 Argumentum hozzáadása
seedfüggvényhezshuffle -
SPARK-49943
timestamp_ntz_to_longeltávolítása innen:PythonSQLUtils -
SPARK-49945 Alias hozzáadása a következőhöz:
distributed_id - SPARK-49755 Az avro-függvények speciális burkolatának eltávolítása a Connectben
-
SPARK-49805 Privát[xxx] függvények eltávolítása
function.scala - SPARK-49929 Dobozdiagramok támogatása
- SPARK-49767 A belső függvényhívás újrabontása
- SPARK-49939 A json_object_keys kódgenerálási támogatása (az Invoke és RuntimeReplaceable használatával)
- SPARK-49854 Az összetevő-kezelő klónozása a munkamenet-klónozás során
-
SPARK-49766 Codegen-támogatás (
json_array_length>InvokeszerintRuntimeReplaceable) -
SPARK-49540 A használat egységesítése
distributed_sequence_id - SPARK-50046 Az EventTimeWatermark csomópont stabil sorrendjének használata a vízjel kiszámításához
-
SPARK-50031 A
TryParseUrlkifejezés hozzáadása -
SPARK-49202 Hisztogram alkalmazása
ArrayBinarySearch - SPARK-49811 StringTypeAnyCollation átnevezése
-
SPARK-50106 Python-csomag frissítése
protobuf5.28.3-ra -
SPARK-49203 Kifejezés hozzáadása a következőhöz:
java.util.Arrays.binarySearch - SPARK-50090 A ResolveBinaryArithmetic újrabontása az egycsomópontos átalakítás elkülönítéséhez
-
SPARK-49103 Támogat
spark.master.rest.filters - SPARK-49222 Használhatatlan metódusok törlése a QueryCompilationErrorsban
-
SPARK-50062 Támogatási rendezések a következő szerint:
InSet - SPARK-50035 Támogatás hozzáadása az állapotalapú processzor explicit handleExpiredTimer függvényéhez
-
SPARK-50050 Fogadja el a
lit,strésbooltípusú numpy ndarrayt -
SPARK-50051 Tegye
litkompatibilissé az üres numpy ndarray-vel - SPARK-49857 StorageLevel hozzáadása a Dataset localCheckpoint API-hoz
- SPARK-48749 Egyszerűsítse le a UnaryPositive-t, és szüntesse meg a katalizátorszabályokat a RuntimeReplaceable használatával
- SPARK-50058 Tervezze meg a normalizálási függvényeket, hogy később használhassa azokat az egyáteresztő elemzési tesztelésben
- SPARK-50042 Numpy 2 frissítése Python linterhez
- SPARK-50052 A NumpyArrayConverter képessé tétele üres str ndarray támogatására.
-
SPARK-49126 Konfigurációdefiníció áthelyezése
spark.history.ui.maxApplicationside:History.scala - SPARK-50044 Több matematikai függvény docstringjének finomítása
- SPARK-48782 Az eljárások katalógusokban való végrehajtásának támogatása
- SPARK-48773 Dokumentum konfiguráció "spark.default.parallelism" a konfigurációs builder keretrendszerrel
- SPARK-49876 Globális zárolások megszabadulása a Spark Connect service-ből
- SPARK-48480 A StreamQueryListenert nem érinti a spark.interrupt()
- SPARK-49978 SparkR-elavulással kapcsolatos figyelmeztetés áthelyezése a csomag csatolási idejére
-
SPARK-48549 Az SQL-függvény fejlesztése
sentences - SPARK-49956 Letiltott rendezések collect_set kifejezéssel
- SPARK-49974 A resolveRelations(...) áthelyezése az Analyzer.scala-ból
- SPARK-49067 Az utf-8 literál áthelyezése az UrlCodec osztály belső metódusaiba
- SPARK-49393 Alapértelmezés szerint meghiúsul az elavult katalógus beépülő modul API-iban
-
SPARK-49918 Használjon írásvédett hozzáférést a konfigurációkhoz, ahol alkalmazható
SparkContext -
SPARK-49924
containsNullcseréje utánArrayCompactmegtartva - SPARK-49895 Hibaüzenet javítása, amikor utólagos vessző található a SELECT záradékban
- SPARK-49890 A df.sample előkészítésének áthelyezése a szülőosztályhoz
-
SPARK-49810 Az
DataFrame.sortelőkészítésének kinyerése a szülőosztályba - SPARK-49405 Karakterkészletek korlátozása a JsonOptionsban
- SPARK-49542 A partícióátalakítás kivétele kiértékeli a hibát
- SPARK-47172 Támogatás hozzáadása az RPC-titkosításhoz AES-GCM számára
- SPARK-44914 A HadoopConfUtilsSuite javítása az xercesImpl elvetése után
- SPARK-47496 A Java SPI támogatása dinamikus JDBC-dialektus-regisztrációhoz
- SPARK-48961 A PySparkException paraméterelnevezésének konzisztenssé tétele a JVM-sel
- SPARK-47390 SQL-időbélyegek leképezésének kezelése a Postgreshez és a MySQL-hez
- SPARK-49824 Naplózás javítása a SparkConnectStreamingQueryCache-ben
- SPARK-49894 Az oszlopmezőműveletek sztringreprezentációjának finomítása
- SPARK-49836 Lehetséges hibás lekérdezés kijavítása, ha az ablak paraméter meg van adva a window/session_window függvényhez.
- SPARK-49531 Vonaldiagram támogatása Plotly háttérrendszerrel
- SPARK-48780 Hibák elhárítása a NamedParametersSupport generic fájlban a függvények és eljárások kezeléséhez
- SPARK-49026 Oszlopcsomópont hozzáadása a Protorra való átalakításhoz
-
SPARK-49814 A Spark Connect-ügyfél indításakor jelenítse meg a
spark versionconnect server - SPARK-49246 A TableCatalog#loadTable jelezze, hogy írásra való-e
- SPARK-49749 Naplószint módosítása hibakeresésre a BlockManagerInfo-ban
-
SPARK-48303 Újjászervez
LogKeys - SPARK-48112 Munkamenet elérhetővé helyezése a SparkConnectPlannerben beépülő modulok számára
-
SPARK-45919 A Java 16
recordhasználata a Java-osztálydefiníció egyszerűsítéséhez -
SPARK-48126 Hatékonyabbá tétele
spark.log.structuredLogging.enabled - SPARK-49656 Támogatás hozzáadása értékállapot-gyűjteménytípusokkal és olvasási változáscsatorna-beállításokkal rendelkező állapotváltozókhoz
- SPARK-49323 A MockObserver áthelyezése a Spark Connect Server tesztmappájából a kiszolgáló fő mappájába
- SPARK-49772 ColumnFamilyOptions eltávolítása és konfigurációk hozzáadása közvetlenül a dbOptionshoz a RocksDB-ben
- SPARK-49688 Adatverseny javítása a megszakítási és végrehajtási terv között
- SPARK-49585 A SessionHolderben lévő végrehajtási térkép cseréje műveletazonosító-készletre
- SPARK-49684 A munkamenet-visszaállítási zárolás élettartamának minimalizálása
- SPARK-48857 Karakterkészletek korlátozása a CSVOptionsban
- SPARK-48615 Teljesítményjavulás a hexadecimális sztring elemzéséhez
-
SPARK-49719 Egész szám létrehozása
UUIDésSHUFFLEelfogadásaseed -
SPARK-49713 Tegye lehetővé, hogy a függvény
count_min_sketchelfogadjon számargumentumokat - SPARK-48623 Strukturált naplózási migrálások [3. rész]
- SPARK-48541 Új kilépési kód hozzáadása a TaskReaper által megölt végrehajtókhoz
- SPARK-48627 A binárisról HEX_DISCRETE sztringre történő átalakítás teljesítményének javítása
- SPARK-49226 Az UDF-kódlétrehozás törlése
- SPARK-49673 A CONNECT_GRPC_ARROW_MAX_BATCH_SIZE növelése a CONNECT_GRPC_MAX_MESSAGE_SIZE maximális üzenetméretének 0,7-szeresére.
- SPARK-49307 Kryo szerializálás hozzáadása az agnosztikus kódoló keretrendszerhez
- SPARK-48601 Felhasználóbarátabb hibaüzenet küldése a JDBC-beállítás null értékének beállításakor
-
SPARK-42252 Adja hozzá
spark.shuffle.localDisk.file.output.bufferés elavulttá teszspark.shuffle.unsafe.file.output.buffer - SPARK-49505 Új "randstr" és "uniform" SQL-függvények létrehozása véletlenszerű sztringek vagy számok tartományon belüli létrehozásához
- SPARK-48341 A beépülő modulok használhatják a QueryTestet a tesztjeikben
- SPARK-48374 További PyArrow-táblaoszloptípusok támogatása
- SPARK-49412 Az összes meződiagram metrikáinak kiszámítása egyetlen feladatban
- SPARK-49684 Globális zárolások eltávolítása a munkamenet- és végrehajtási kezelőkből
- SPARK-49225 ColumnNode SQL hozzáadása és normalizálása
- SPARK-49274 Java szerializáláson alapuló kódolók támogatása
- SPARK-49089 Hardcoded Catalyst-kifejezések áthelyezése a belső függvényregisztrációs adatbázisba
- SPARK-48185 Javítás: "A szimbolikus referenciaosztály nem érhető el: a sun.util.calendar.ZoneInfo osztály"
- SPARK-48037 A SortShuffleWriter hiányzó, írással kapcsolatos metrikáinak javítása, ami potenciálisan pontatlan adatokat eredményezhet.
-
SPARK-49534 Már nem kerül előtagként
sql/hiveéssql/hive-thriftserverhozzáadásra, haspark-hive_xxx.jarnincs az osztályútvonalban - SPARK-49502 Az NPE elkerülése a SparkEnv.get.shuffleManager.unregisterShuffle alkalmazásban
-
SPARK-49567 Használja a
classicavanillahelyett a PySpark kódbázisban - SPARK-49582 A "dispatch_window_method" segédprogram és a hozzá tartozó dokumentáció fejlesztése
- SPARK-49478 Null metrikák kezelése a ConnectProgressExecutionListenerben
- SPARK-49525 Kisebb naplófejlesztés a kiszolgálóoldali streamelési lekérdezés figyelő busza számára.
- SPARK-49544 A durva zár cseréje a SparkConnectExecutionManagerben a ConcurrentMap használatával
- SPARK-49548 A durva zárolás cseréje a SparkConnectSessionManagerben a ConcurrentMap-ra
- SPARK-49004 Különálló beállításjegyzék használata a Column API belső függvényeihez
- SPARK-49443 A to_variant_object kifejezés implementálása és schema_of_variant kifejezések nyomtatása OBJECT for Variant Objects
-
SPARK-49595 Javítás
DataFrame.unpivot/melta Spark Connect Scala-ügyfélben - SPARK-49526 Windows-stílusú elérési utak támogatása az ArtifactManagerben
- SPARK-49396 A CaseWhen kifejezés null értékességének ellenőrzésének módosítása
- SPARK-49024 Függvények támogatásának hozzáadása az oszlopcsomóponthoz
- SPARK-48985 Kompatibilis kifejezéskonstruktorok csatlakoztatása
- SPARK-49083 Engedélyezze, hogy a from_xml és a from_json funkciók natívan működjenek a JSON-sémákkal.
- SPARK-48986 Oszlopcsomópont közbenső reprezentációja
- SPARK-48960 Lehetővé teszi a spark-submit használatát a Spark Connecttel
- SPARK-49492 Inaktív végrehajtásiőrzőn megkísérelt újraattachálás
- SPARK-47307 Adjon hozzá egy konfigurációt a base64 karakterláncok opcionális darabolásához
- SPARK-49451 Ismétlődő kulcsok engedélyezése parse_json
- SPARK-49021 Az transformWithState értékállapot-változók olvasásának támogatása az állapotadat-olvasóval
-
SPARK-49249 API hozzáadása
addArtifacta Spark SQL Core-hoz - SPARK-48693 Az Invoke és a StaticInvoke toString-jének egyszerűsítése és egységesítése
- SPARK-41982 A típussztring partícióit nem szabad numerikus típusokként kezelni
- SPARK-49216 Javítás, hogy ne naplózza az üzenetkörnyezetet explicit módon létrehozott LogEntry használatával, amikor a strukturált naplózási konferencia ki van kapcsolva
-
SPARK-49459 Támogatás a Shuffle Checksumhoz
CRC32C - SPARK-49409 A CONNECT_SESSION_PLAN_CACHE_SIZE alapértelmezett értékének módosítása
- SPARK-49164 A NullSafeEqual nélküli egyenlőség javítása az SQL-lekérdezés predikátumában a JDBC relációban.
- SPARK-48344 SQL-szkriptek végrehajtása (beleértve a Spark Connectet)
- SPARK-49260 A modul osztályútvonalát már nem illesztjük előre a Spark Connect Shellben
-
SPARK-49041 Megfelelő hiba jelzése történik, ha helytelen
dropDuplicatesvan megadvasubsetesetén. - SPARK-49300 A Hadoop-delegálási jogkivonat kiszivárgásának javítása, ha a tokenRenewalInterval nincs beállítva
- SPARK-48796 Oszlopcsalád-azonosító betöltése a RocksDBCheckpointMetadata for VCF-ből újraindításkor
- SPARK-49269 Lelkesen értékelje ki VALUES() a listát az AstBuilderben
- SPARK-49336 A beágyazási szint korlátozása protobuf-üzenet csonkolásakor
- SPARK-49245 Elemező szabályok újrabontása
- SPARK-48755 transformWithState pyspark base implementáció és ValueState támogatás
- SPARK-48762 A clusterBy DataFrameWriter API bevezetése Pythonhoz
- SPARK-48967 A " INTO ... INSERT"VALUES teljesítmény- és memóriaigényének javítása Nyilatkozatok
- SPARK-49195 Szkriptszintű elemzési logika beágyazása a SparkSubmitCommandBuilderbe
-
SPARK-49173 A Spark Connect shell prompt módosítása
@-rólscala>-re - SPARK-49198 A Spark Connect-rendszerhéjhoz szükséges JAR-ok csökkentése
- SPARK-48936 Lehetővé teszi a spark-shell működését a Spark Connecttel
-
SPARK-49201 Ábrázolás újraimplementálása
hista Spark SQL-lel - SPARK-49111 Áthelyezés aProjectAndFilterrel a DataSourceV2Strategy társobjektumára
-
SPARK-49185 Ábrázolás újrailledése
kdea Spark SQL-vel - SPARK-48761 A ClusterBy DataFrameWriter API bemutatása a Scalához
- SPARK-48628 Feladat csúcsterhelésének hozzáadása a foglalton/foglalatlan halom memória metrikákhoz
-
SPARK-48900 Mező hozzáadása
reasonaz összes belső feladat-/szakaszlemondási híváshoz -
SPARK-49076 Az AstBuilder megjegyzéseiben szereplő elavult
logical plan namehiba kijavítása -
SPARK-49059 Ugrás
SessionHolder.forTesting(...)a tesztcsomagra - SPARK-48658 Kódolási/dekódolási függvények a mojibake helyett kódolási hibákat jelentenek
- SPARK-45891 Intervallumtípusok támogatásának hozzáadása a Variant Specben
- SPARK-49032 Sémaútvonal hozzáadása metaadattábla-bejegyzéshez és kapcsolódó teszt a v2 operátori metaadat-formátumhoz
- SPARK-49009 Az oszlop API-k és függvények átalakítása, hogy támogassák az enumerációkat
-
SPARK-49035 TypeVar eltávolítása
ColumnOrName_ - SPARK-48849 OperatorStateMetadataV2 létrehozása a TransformWithStateExec operátorhoz
-
SPARK-48974 Használja
SparkSession.implicitshelyettSQLContext.implicits -
SPARK-48996 Az oszlop
__and__és__or__esetén engedélyezze a csupasz literálokat. - SPARK-48928 Figyelmeztetés naplózása helyileg ellenőrzőponttal ellátott RDD-k .unpersist() függvényének hívásakor
- SPARK-48972 A függvények literális sztringkezelésének egyesítése
- SPARK-48891 A StateSchemaCompatibilityChecker újrabontása az összes állapotsémaformátum egységesítéséhez
-
SPARK-48841 Belefoglalás
collationNamea következőbe:sql()Collate - SPARK-48944 A JSON formátumú sémakezelés egységesítése a Connect Serverben
-
SPARK-48945 Regex-függvények egyszerűsítése
lit - SPARK-48865 Try_url_decode függvény hozzáadása
-
SPARK-48851 Változtassa meg a
SCHEMA_NOT_FOUNDértékétnamespace-rőlcatalog.namespace-re - SPARK-48510 Javítás az UDAF-API-hoz tesztek futtatásakor a Mavenben
-
SPARK-45190 Tegye lehetővé a StructType séma támogatását
from_xml -
SPARK-48900 Mező hozzáadása
reasonéscancelJobGroupmezőkhözcancelJobsWithTag - SPARK-48909 SparkSession használata SparkContext használatával metaadatok írásakor
-
SPARK-48510 Az UDAF
toColumnAPI támogatása a Spark Connectben - SPARK-45155 API-dokumentáció hozzáadása a Spark Connect JVM/Scala klienshez
- SPARK-48794 df.mergeInto támogatás a Spark Connecthez (Scala és Python)
-
SPARK-48714 Implementálás
DataFrame.mergeIntoa PySparkban - SPARK-48726 A TransformWithStateExec operátor StateSchemaV3 fájlformátumának létrehozása
- SPARK-48834 Variáns bemenet/kimenet letiltása Python UDF-ekre, UDTF-ekre és UDAF-ekre a lekérdezés-fordítás során
- SPARK-48716 JobGroupId hozzáadása a SparkListenerSQLExecutionStarthoz
- SPARK-48888 A pillanatkép-létrehozás eltávolítása a changelog műveletek mérete alapján
- SPARK-48772 Állapotadatforrás változáscsatorna-olvasó üzemmódja
- SPARK-48742 Virtual Column Family for RocksDB
- SPARK-48852 Karakterlánc vágás funkció javítása a connectben
- SPARK-48343 Az SQL Scripting-értelmező bemutatása
-
SPARK-48118 Támogatás
SPARK_SQL_LEGACY_CREATE_HIVE_TABLEenv változó - SPARK-48804 Hozzáadás classIsLoadable és OutputCommitter.isAssignableFrom ellenőrzésének a kimeneti rögzítő osztály konfigurációinál
- SPARK-47577 A naplókulcs félrevezető használatának javítása TASK_ID
-
SPARK-48798 Bevezetés
spark.profile.rendera SparkSession-alapú profilkészítéshez - SPARK-48686 A ParserUtils.unescapeSQLString teljesítményének javítása
- SPARK-48611 Naplózza a TID-t a HadoopRDD és a NewHadoopRDD bemeneti felosztásához
-
SPARK-48720 A parancs
ALTER TABLE ... UNSET TBLPROPERTIES ...igazítása az 1. és a 2. verzióban - SPARK-48710 NumPy 2.0-kompatibilis típusok használata
- SPARK-48810 A munkamenet-leállítás() API-nak idempotensnek kell lennie
-
SPARK-48818 Függvények egyszerűsítése
percentile - SPARK-48638 ExecutionInfo-támogatás hozzáadása a DataFrame-hez
- SPARK-48799 Verziókezelés átszervezése az operátor metaadatainak olvasásához/írásához
-
SPARK-46122
spark.sql.legacy.createHiveTableByDefaultbeállításafalsealapértelmezés szerint - SPARK-48629 A reziduális kód migrálása strukturált naplózási keretrendszerbe
- SPARK-48320 A legújabb naplózási jellemzők és tesztelési esetek szinkronizálása az OSS Sparkból
- SPARK-48573 ICU-verzió frissítése
- SPARK-48687 Állapotséma-ellenőrzés és frissítés hozzáadása az illesztőprogramhoz az állapotalapú lekérdezések tervezési fázisában
- SPARK-47579 LogInfo migrálása változókkal strukturált naplózási keretrendszerbe (1–4. RÉSZ)
- SPARK-48713 Indextartomány-ellenőrzés hozzáadása az UnsafeRow.pointTo esetén, ha a baseObject bájttömb.
- SPARK-48498 Mindig a karakterpárnázást végezze el a predikátumokban
- SPARK-48598 A gyorsítótárazott séma propagálása az adatkeret-műveletek során
- SPARK-47599 MLLib: LogWarn migrálása változókkal a strukturált naplózási keretrendszerbe
- SPARK-48576 Az UTF8_BINARY_LCASE átnevezése UTF8_LCASE-re
- SPARK-48650 A megfelelő híváswebhely megjelenítése az IPython Notebookból
- SPARK-48059 Strukturált napló-keretrendszer a Java oldalán
- SPARK-48482 dropDuplicates és dropDuplicatesWithinWatermark változó hosszúságú argeket kell elfogadnia
-
SPARK-48620 Belső nyers adatszivárgás javítása
YearMonthIntervalTypeésCalendarIntervalTypeesetében - SPARK-48555 Oszlopok több függvény paraméterként való használatának támogatása
-
SPARK-48591 Segédfüggvény hozzáadása az egyszerűsítés érdekében
Column.py - SPARK-48459 DataFrameQueryContext implementálása a Spark Connectben
- SPARK-48610 Átalakítás: használjon segéd idMap-et az OP_ID_TAG helyett
-
SPARK-47923 Az R-csomag minimális verziójának
arrowfrissítése 10.0.0-ra - SPARK-48593 A lambda függvény sztringreprezentációjának javítása
- SPARK-46947 A memóriakezelő inicializálásának késleltetése az illesztőprogram beépülő modul betöltéséig
- SPARK-48220 PyArrow-tábla átadásának engedélyezéseDataFrame() létrehozásához
- SPARK-48564 Gyorsítótárazott séma propagálása a beállított műveletekben
-
SPARK-48561 Nem támogatott ábrázolási függvények megjelenítése
PandasNotImplementedError - SPARK-48513 Hibaosztály hozzáadása az állapotséma kompatibilitásához
- SPARK-48553 Több tulajdonság gyorsítótárazása
- SPARK-48550 A szülőablak-osztály közvetlen használata
- SPARK-48504 Szülőablak-osztály a Spark Connecthez és a Klasszikus Sparkhoz
-
SPARK-48508 A felhasználó által megadott séma gyorsítótárazása
DataFrame.{to, mapInPandas, mapInArrow} - SPARK-48496 Statikus regex mintapéldányok használata a JavaUtilsben
- SPARK-47578 Manuális backport: változókkal történő logWarning migrálása
- SPARK-47737 Bump PyArrow to 10.0.0
- SPARK-48159 Csoportosított sztringek támogatásának kiterjesztése datetime-kifejezéseken
- SPARK-48454 A szülő DataFrame-osztály közvetlen használata
- SPARK-48438 A szülőoszlop osztály közvetlen használata
- SPARK-47597 Manuális backport: logInfo migrálása változókkal
-
SPARK-48434 Használja
printSchemaa gyorsítótárazott sémát -
SPARK-46998 AZ SQL-konfiguráció elavultra bontása
spark.sql.legacy.allowZeroIndexInFormatString - SPARK-46569 A SecureRandom ThreadLocal eltávolítása a JDK9 óta
- SPARK-46455 Redundáns típusátalakítás eltávolítása
-
SPARK-46270 Java16-kifejezések
instanceofhasználata - SPARK-46479 A Commons-lang3 for Java verzióellenőrzés segédprogramjának használata
- SPARK-45998 Redundáns típuskonverziók eltávolítása
- SPARK-45533 A RocksDBIterator/LevelDBIterator véglegesítése helyett használja a j.l.r.Cleanert
- SPARK-45309 Távolítsa el az összes SystemUtils.isJavaVersionAtLeast 9/11/17 JDK-val
-
SPARK-48295 Alapértelmezés szerint bekapcsolva
compute.ops_on_diff_frames - SPARK-47960 Más állapotalapú operátorok láncolásának engedélyezése az transformWithState után
- SPARK-48367 Lint-scala javítása a skalafmt fájlok felismeréséhez
- SPARK-48247 A MapType-séma következtetéséhez használja a diktálásban szereplő összes értéket
- SPARK-48370 Ellenőrzőpont és localCheckpoint a Scala Spark Connect-ügyfélben
- SPARK-48258 Ellenőrzőpont és localCheckpoint a Spark Connectben
- SPARK-48293 Teszt hozzáadása a ForeachBatchUserFuncException körbefuttatási megszakításához
- SPARK-48031 A viewSchemaMode konfiguráció részletezése; SHOW CREATE TABLE támogatás hozzáadása
- SPARK-48288 Forrásadat típus hozzáadása a csatlakozó típusátalakítási kifejezéséhez
- SPARK-48310 A gyorsítótárazott tulajdonságoknak másolatokat kell visszaadni
-
SPARK-48287 Beépített
timestamp_diffmetódus alkalmazása - SPARK-44444 ANSI SQL mód használata alapértelmezés szerint
-
SPARK-48276 Hiányzó elem hozzáadása a következőhöz
__repr__:SQLExpression - SPARK-46991 Cserélje le az IllegalArgumentException elemet SparkIllegalArgumentExceptionre a katalizátorban
- SPARK-48031 Nézeti sémafejlődés támogatása
- SPARK-48113 Lehetővé teszi a beépülő modulok integrálását a Spark Connecttel
- SPARK-47158 Név és sqlState hozzárendelése régi hibakódokhoz
-
SPARK-47545 A Scala-ügyfél adatkészlet-támogatása
observe - SPARK-47993 A Python 3.8 elvetése
- SPARK-48260 Kimeneti véglegesítés koordinálásának letiltása a ParquetIOSuite-ban
- SPARK-47365 ToArrow() DataFrame metódus hozzáadása a PySparkhoz
- SPARK-47963 Strukturált naplózás engedélyezése külső Spark-ökoszisztémához
- SPARK-48045 Több aggregációs átnevezési eljárás javítása az as_index=False beállítás figyelmen kívül hagyásával
- SPARK-47719 A timeParserPolicy alapértelmezett értékének módosítása JAVÍTVA értékre
- SPARK-48075 PySpark avro-függvények típusellenőrzése
- SPARK-48102 Metrikák időtartamának nyomon követése a streamelési lekérdezés folyamatában
- SPARK-47858 DataFrame-hibakörnyezet újrabontása
-
SPARK-48052 CI szülőosztályok szerinti helyreállítása
pyspark-connect - SPARK-45284 A SparkR minimális SystemRequirements frissítése Java 17-re
- SPARK-47933 Szülőoszloposztály a Spark Connecthez és a Klasszikushoz
- SPARK-48053 A SparkSession.createDataFrame figyelmeztetést ad a nem támogatott beállításokra
-
SPARK-48044 Gyorsítótár
DataFrame.isStreaming - SPARK-47594 Strukturált naplómigrálások
- SPARK-47764 Shuffle-függőségek törlése a ShuffleCleanupMode használatával
- SPARK-45501 Mintamegfeleltetés használata típusellenőrzéshez és átalakításhoz
-
SPARK-45515 Továbbfejlesztett
switchkifejezések használata a normálswitchutasítás helyére - SPARK-47417 Kolláció támogatása: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences
- SPARK-47909 Szülő DataFrame-osztály a Spark Connecthez és a Klasszikus Sparkhoz
- SPARK-47602 Core/MLLib/Erőforrás-kezelők: strukturált naplózási migrálás
- SPARK-47390 PostgresDialect megkülönbözteti a TIMESTAMP és a TIMESTAMP_TZ értékeket
- SPARK-47868 Rekurziós korláthiba kijavítása a SparkConnectPlannerben és a SparkSessionban
-
SPARK-45802 A már nem szükséges Java-ellenőrzések
majorVersioneltávolításaPlatform - SPARK-47818 Terv-gyorsítótár bevezetése a SparkConnectPlanner-ben az elemzési kérések teljesítményének javítása érdekében
-
SPARK-46031 Csere erre
!Optional.isPresent():Optional.isEmpty() -
SPARK-45659 Új mező hozzáadása
sincea Java API-hoz úgy, hogy@Deprecated - SPARK-45596 A java.lang.ref.Cleaner használata a org.apache.spark.sql.connect.client.util.Cleaner helyett
- SPARK-47807 A pyspark.ml kompatibilis tétele a pyspark-connect szolgáltatással
-
SPARK-45830 Refaktorálás
StorageUtils#bufferCleaner -
SPARK-45578
InaccessibleObjectExceptionhasználatának eltávolítása atrySetAccessiblehasználatával - SPARK-44895 A ThreadStackTrace "démon" és "prioritás" hozzáadása
- SPARK-45295 A JDK 8 Utils.isMemberClass kerülő megoldásának eltávolítása
- SPARK-47081 A lekérdezés végrehajtásának előrehaladásának támogatása
- SPARK-45322 A pid közvetlen lekérése a ProcessHandle használatával
- SPARK-46812 Tedd lehetővé a mapInPandas / mapInArrow számára a ResourceProfile támogatását
- SPARK-47406 TIMESTAMP és DATETIME kezelése a MYSQLDialectben
- SPARK-47712 Adathalmazok létrehozásának és feldolgozásának engedélyezése a csatlakozó beépülő modulok számára
-
SPARK-47720 Frissítés
spark.speculation.multiplier3-ra ésspark.speculation.quantile0.9-re - SPARK-47665 ShortType írása a MYSQL-be a SMALLINT használatával
- SPARK-47722 Várjon, amíg a RocksDB háttérmunka befejeződik, mielőtt bezárul
-
SPARK-47610 Mindig beállítva
io.netty.tryReflectionSetAccessible=true - SPARK-47372 Tartományvizsgálaton alapuló kulcsállapot-kódoló támogatásának hozzáadása az állapottároló-szolgáltatóhoz való használatra
- SPARK-44708 A test_reset_index assert_eq migrálása az assertDataFrameEqual függvény használatára
- SPARK-47346 Démon mód konfigurálása Python planner-feldolgozók létrehozásakor
-
SPARK-47419 Ugrás
log4j2-defaults.propertieside:common/utils - SPARK-47380 Győződjön meg arról, hogy a kiszolgáló oldalán a SparkSession ugyanaz
- SPARK-47055 A MyPy 1.8.0 frissítése
-
SPARK-46795 Csere a következővel
UnsupportedOperationException:SparkUnsupportedOperationExceptionsql/core -
SPARK-46648 Használat
zstdalapértelmezett ORC-tömörítésként -
SPARK-47322 Az oszlopnevek duplikálásának kezelése konzisztenssé tétele
withColumnsRenamedwithColumnRenamed -
SPARK-47011 Elavult elemek eltávolítása
BinaryClassificationMetrics.scoreLabelsWeight -
SPARK-46332 Migrálás
CatalogNotFoundExceptiona hibaosztálybaCATALOG_NOT_FOUND - SPARK-46975 Dedikált tartalék módszerek támogatása
-
SPARK-47069 Bevezetés
spark.profile.show/dumpa SparkSession-alapú profilkészítéshez - SPARK-47062 Beépülő modulok áthelyezése Java-ba kompatibilitás céljából
- SPARK-46833 Rendezések – A CollationFactory bemutatása, amely összehasonlítási és kivonatolási szabályokat biztosít a támogatott rendezésekhez
- SPARK-46984 Pyspark.copy_func eltávolítása
- SPARK-46849 Optimalizáló futtatása az CREATE TABLE oszlop alapértelmezett értékén
-
SPARK-46976 Megvalósít
DataFrameGroupBy.corr - SPARK-46911 DeleteIfExists operátor hozzáadása a StatefulProcessorHandleImplhez
-
SPARK-46955 Megvalósít
Frame.to_stata -
SPARK-46936 Megvalósít
Frame.to_feather -
SPARK-46655 A lekérdezési környezet kihagyása a
DataFramemetódusokban -
SPARK-46926 Hozzáadás
convert_dtypes,infer_objectsésset_axisa tartaléklistába - SPARK-46683 Allekérdezési generátor írása, amely allekérdezések permutációit generálja a tesztelési lefedettség növelése érdekében
-
SPARK-46777 A katalizátor szerkezetének újrastrukturálása
StreamingDataSourceV2Relationhogy jobban megfeleljen a batch verziónak. - SPARK-46620 Alapszintű tartalék mechanizmus bevezetése keretmetelyekhez
- SPARK-46808 Hibaosztályok pontosítása a Pythonban automatikus rendezési függvénnyel
- SPARK-46686 A SparkSession-alapú Python UDF-profilkészítő alapszintű támogatása
-
SPARK-46258 Hozzáad
RocksDBPersistenceEngine -
SPARK-46665 Eltávolít
assertPandasOnSparkEqual -
SPARK-46227 Áthelyezés
withSQLConfaSQLHelper-ból/-bőlSQLConfHelper-ba/-be - SPARK-40876 Típus-promóciók bővítése a Parquet-olvasókban
- SPARK-46101 A veremmélység csökkentése a (string|array).size kicserélésével (string|array).length-re.
- SPARK-46170 Adaptív lekérdezés post tervezési stratégiai szabályok beillesztésének támogatása a SparkSessionExtensions-ben
- SPARK-46246EXECUTE IMMEDIATE SQL-támogatás
- SPARK-46466 A vektoros parquet-olvasónak soha nem szabad újrabázist végeznie az időbélyeg ntz-hez
- SPARK-46399 Kilépési állapot hozzáadása az Application End eseményhez a Spark-figyelő használatához
- SPARK-45506 Ivy URI támogatás hozzáadása a SparkConnect addArtifact funkcióhoz
- SPARK-45597 Tábla létrehozásának támogatása Python-adatforrás használatával az SQL-ben (DSv2 exec)
- SPARK-46402 GetMessageParameters és getQueryContext támogatás hozzáadása
-
SPARK-46213 Bevezet
PySparkImportErrora hibakeretrendszerbe - SPARK-46226 Az összes fennmaradó elemet migráljuk a PySpark hiba keretrendszerébe
-
SPARK-45886 Adja ki a teljes veremkövetést a
callSiteDataFrame-környezetben - SPARK-46256 Párhuzamos tömörítés támogatása a ZSTD-hez
- SPARK-46249 Példányzárolás megkövetelése a RocksDB-metrikák beszerzéséhez a háttérben futó verseny megakadályozása érdekében
-
SPARK-45667 Az elavult API-használat törlése a következőhöz:
IterableOnceExtensionMethods - SPARK-46254 Elavult Python 3.8/3.7 verzióellenőrzés eltávolítása
-
SPARK-46213 Bevezet
PySparkImportErrora hibakeretrendszerbe - SPARK-46188 A Spark-dokumentum által létrehozott táblák CSS-jének javítása
-
SPARK-45670 A SparkSubmit nem támogatja
--total-executor-coresa K8-on való üzembe helyezést -
SPARK-46169 Megfelelő JIRA-számok hozzárendelése hiányzó paraméterekhez az API-ból
DataFrame - SPARK-45022 Az adathalmaz API-hibáinak kontextusának megadása
- SPARK-46062 Az isStreaming jelölő szinkronizálása a CTE-definíció és a referencia között
-
SPARK-45698 Az elavult API-használat törlése a következőhöz:
Buffer - SPARK-45136 A ClosureCleaner továbbfejlesztése az Ammonite támogatásával
- SPARK-44442 Mesos-támogatás eltávolítása
- SPARK-45996 A Spark Connect megfelelő függőségi követelményüzeneteinek megjelenítése
-
SPARK-45767
TimeStampedHashMapés annak UT-jának törlése - SPARK-45912 Az XSDToSchema API továbbfejlesztése: A HDFS API-ra váltás a felhőalapú tárolás akadálymentességéhez
-
SPARK-45338 Csere erre
scala.collection.JavaConverters:scala.jdk.CollectionConverters - SPARK-45828 Elavult metódus eltávolítása a dsl-ben
- SPARK-45718 A Spark 3.4.0 fennmaradó elavult Pandas-funkcióinak eltávolítása
-
SPARK-45990 Frissítés
protobufa 4.25.1-re a támogatás érdekébenPython 3.11 -
SPARK-45941 Frissítés
pandasa 2.1.3-ra - SPARK-45555 Hibakeresési objektumot biztosít sikertelen állítások esetére
- SPARK-45710 Nevek hozzárendelése a hibához _LEGACY_ERROR_TEMP_21[59,60,61,62]
- SPARK-45733 Több újrapróbálkozési szabályzat támogatása
- SPARK-45503 Konfiguráció hozzáadása a RocksDB-tömörítés beállításához
- SPARK-45614 Adjon nevet a _LEGACY_ERROR_TEMP_215[6,7,8] hibának
- SPARK-45680 Kiadási munkamenet
- SPARK-45620 A Python UDTF-hez kapcsolódó felhasználói API-k javítása a camelCase használatához
-
SPARK-45634 Eltávolítás
DataFrame.get_dtype_countsa Pandas API-ból a Sparkon - SPARK-44752 XML: Spark-dokumentumok frissítése
- SPARK-45523 Hasznos hibaüzenetet ad vissza, ha az UDTF a None értéket adja vissza a nem null értékű oszlopokhoz
- SPARK-45558 Metaadatfájl bemutatása állapotalapú streamelési operátorhoz
-
SPARK-45390 Távolítsa el a
distutilshasználatát - SPARK-45517 További kivételkonstruktorok bővítése a hibaelemzési keretrendszer paramétereinek támogatása érdekében
- SPARK-45427 RPC SSL-beállítások hozzáadása az SSLOptionshoz és a SparkTransportConfhoz
- SPARK-45581 Tegye kötelezővé az SQLSTATE-t.
- SPARK-44784 SBT-teszt hermetikussá tétele.
- SPARK-45550 Elavult API-k eltávolítása a Pandas API-ból a Sparkon
- SPARK-45415 A "fallocate" szelektív letiltásának engedélyezése a RocksDB statestore-ban
- SPARK-45487 SQLSTATES- és temp-hibák javítása
- SPARK-45505 Refaktorálás az analyzeInPython függvényen, hogy újrahasználható legyen
- SPARK-45451 Az adathalmaz-gyorsítótár alapértelmezett tárolási szintjének konfigurálhatóvá tétele
- SPARK-45065 A Pandas 2.1.0 támogatása
- SPARK-45450 Az importok javítása a PEP8 szabvány szerint: pyspark.pandas és pyspark (mag)
- SPARK-43299 StreamingQueryException konvertálása a Scala-ügyfélben
-
SPARK-42617 A pandas 2.0.0 támogatása
isocalendar - SPARK-45441 További util függvények bevezetése a PythonWorkerUtilshez
- SPARK-43620 A Pandas API-k javítása a nem támogatott funkcióktól függ
- SPARK-45330 Ammonite frissítése a 2.5.11-re
- SPARK-45267 Módosítsa a numeric_only alapértelmezett értékét.
- SPARK-45303 JDK 8/11 kerülő megoldás eltávolítása a KryoSerializerBenchmarkban
-
SPARK-43433 Viselkedés egyeztetése
GroupBy.ntha legújabb Pandas-okkal -
SPARK-45166 A nem használt kód elérési útjainak törlése a következőhöz:
pyarrow<4 - SPARK-44823 Frissítették a Black szoftvert 23.9.1-re, és javították a hibás ellenőrzést
-
SPARK-45165 Paraméter eltávolítása
inplaceAPI-kbólCategoricalIndex -
SPARK-45180 Távolítsa el a(z)
inclusiveparaméter logikai bemeneteit a(z)Series.between-ból/ből. -
SPARK-45164 Elavult
IndexAPI-k eltávolítása - SPARK-45179 A Numpy minimális verziójának növelése 1.21-esre
-
SPARK-45177 Paraméter eltávolítása
col_spaceato_latex -
SPARK-43241
MultiIndex.appendnem ellenőrzi a neveket az egyenlőség szempontjából -
SPARK-43123 Emeljen
TypeErrorDataFrame.interpolateakkor, ha az összes oszlop objektum típusú. -
SPARK-43295 Sztring típusú oszlopok támogatása
DataFrameGroupBy.sum -
SPARK-42619 Egy paraméter hozzáadása
show_countsDataFrame.info-hoz - SPARK-44863 Gomb hozzáadása a szálkép txt formátumban való letöltéséhez a Spark felhasználói felületén
- SPARK-44713 Megosztott osztályok áthelyezése az SQL/API-ba
- SPARK-44692 Trigger(ek) áthelyezése az sql/api-ba
-
SPARK-43563 Távolítsa el
squeezeés további tesztek engedélyezéseread_csv. -
SPARK-43476 Pandas 2.0.0 és újabb verziók támogatása
StringMethods -
SPARK-43872 Támogatás
(DataFrame|Series).plota pandas 2.0.0-s és újabb verziókkal. -
SPARK-42620 (DataFrame|Sorozat).between_time részére
inclusiveparaméter hozzáadása -
SPARK-44289 A pandas 2.0.0 támogatása és több teszt engedélyezése
indexer_between_time. - SPARK-42621 Inkluzív paraméter hozzáadása pd.date_range számára
-
SPARK-43709 Távolítsa el a
closedparamétert, és engedélyezze a tesztet aps.date_range. -
SPARK-43568 A pandas 2 támogatási
CategoricalAPI-jai - SPARK-44842 A pandas 2.0.0 stat függvényeinek támogatása és a tesztek engedélyezése.
SPARK-43606 Eltávolítás& -
SPARK-43873 Engedélyezése
FrameDescribeTests -
SPARK-44841 A pandas 2.0.0 és újabb verziók támogatása
value_counts. - SPARK-44686 Adja hozzá a RowEncodert az Encoders.scala-ban.
- SPARK-41400 Kapcsolati ügyfél katalizátor függőségének eltávolítása
- SPARK-44538 Row.jsonValue és hasonló funkciók visszaállítása
- SPARK-44507 AnalysisException áthelyezése az sql/api-ba
- SPARK-44531 Kódoló következtetésének áthelyezése az SQL/API-ba
- SPARK-43744 A kiszolgálói osztályúton nem található stub felhasználói osztályok által okozott osztálybetöltési probléma megoldása
- SPARK-36612 Bal oldali külső illesztés összeállításának támogatása balra vagy jobb oldali külső illesztés összeállítása jobbra az elfojtott kivonatos illesztésben
-
SPARK-44541 Használhatatlan függvény
hasRangeExprAgainstEventTimeColeltávolításaUnsupportedOperationChecker - SPARK-44059 A beépített függvények nevesített argumentumainak elemzői támogatásának hozzáadása
- SPARK-44216 Az assertSchemaEqual API nyilvánossá tétele
- SPARK-43755 Végrehajtás áthelyezése a SparkExecutePlanStreamHandlerből egy másik szálra
- SPARK-44201 Streamfigyelő támogatása a Scala for Spark Connectben
- SPARK-43965 Python UDTF támogatása a Spark Connectben
- SPARK-44398 Scala foreachBatch API
- SPARK-44044 Windows-függvények hibaüzenetének javítása streameléssel
Databricks ODBC/JDBC meghajtó támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Karbantartási frissítések
Lásd a Databricks Runtime 17.0 karbantartási frissítéseit.
Rendszerkörnyezet
- operációs rendszer: Ubuntu 24.04.2 LTS
- Java: Zulu17.54+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Telepített Python-kódtárak
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| széljegyzetes típusok | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | nyíl | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | Aszinkron-LRU | 2.0.4 | attribútumok | 24.3.0 |
| automatikus parancs | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web (web kezelési modul az Azure-hoz) | 8.0.0 |
| Azure-tároló-blob | 12.23.0 | Azure-tároló-fájl-adattó (Azure Storage File Data Lake) | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | fekete | 24.10.0 |
| fehérítő | 6.2.0 | villogó | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | Gyorstár-eszközök | 5.5.1 | tanúsítvány | 2025.01.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | karakterkészlet-normalizáló (charset-normalizer) | 3.3.2 |
| kattintás | 8.1.7 | Cloudpickle | 3.0.0 | kommunikáció | 0.2.1 |
| ContourPy | 1.3.1 | kriptográfia | 43.0.3 | biciklista | 0.11.0 |
| Cython | 3.0.12 | databricks SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy hibakereső eszköz | 1.8.11 | dekorátor | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | docstring Markdown-formátummá alakítása | 0.11 |
| Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | fájlzárolás | 3.18.0 | betűtípusok | 4.55.3 |
| FQDN | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | Google-autentikáció | 2.40.0 |
| google-cloud-core (Google felhő mag) | 2.4.3 | Google felhőtárhely | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (Google újraindítható média) | 2.7.2 | googleapis-közös-protokollok | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | Idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | ragoz | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| izodátum | 0.6.1 | izoduráció | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-specifikációk | 2023.07.01. | jupyter-események | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_kliens | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server (Jupyter kiszolgáló) | 2.14.1 |
| jupyter szerver terminálok | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| JupyterLab-widgetek | 1.0.0 | jupyterlab_szerver | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| félhangol | 2.0.4 | mlflow-skinny | 2.22.0 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-kiterjesztések | 1.3.1 |
| mypy kiterjesztések | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| jegyzetfüzet | 7.3.2 | notebook-shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-szemantikai-konvenciók | 0,53b1 | Felülbírálja | 7.4.0 | csomagolás | 24.1 |
| Pandák | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| útvonal specifikáció (pathspec) | 0.10.3 | bűnbak | 1.0.1 | pexpect | 4.8.0 |
| párna | 11.1.0 | pipa | 25.0.1 | Platformdirs | 3.10.0 |
| ábrázolás | 5.24.1 | csatlakozós | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit: parancssori eszközkészlet | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser (C és C++ fájlok feldolgozására szolgáló parser) | 2.21 |
| pydantic (egy Python könyvtár) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes (egy program vagy eszköz neve) | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc (Python ODBC interfész) | 5.2.0 | pyparsing (egy Python könyvtár a szövegelemzéshez) | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | Szoftver verzió: 2.9.0.post0 |
| Python JSON naplózó | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytool konfiguráció | 1.2.6 | pytz (egy Python könyvtár az időzóna számításokhoz) | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Hivatkozás | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator | 0.1.4 | RFC3986-érvényesítő | 0.1.1 | gazdag | 13.9.4 |
| kötél | 1.12.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn (egy Python gépi tanulási könyvtár) | 1.6.1 | scipy (tudományos és műszaki számítási Python könyvtár) | 1.15.1 |
| tengerben született | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| hat | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | levesszűrő | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | halmaz adatok | 0.2.0 | Starlette | 0.46.2 |
| statsmodels - statisztikai szoftvercsomag | 0.14.4 | strictyaml | 1.7.3 | Kitartás | 9.0.0 |
| befejezett | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | típusőrző | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions (gépelési kiterjesztések) | 4.12.2 | tzdata | 2024.1 | ujson (JSON-kezelő könyvtár a Pythonban) | 5.10.0 |
| felügyelet nélküli frissítések | 0,1 | uri-sablon | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webszínek | 24.11.1 | webkódolások | 0.5.1 |
| websocket-klient | 1.8.0 | Mi a javítás? | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | becsomagolva | 1.17.0 | yapf | 0.40.2 |
| cipzár | 3.21.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2025-03-20-án.
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| nyíl | 19.0.1 | jelszókérés | 1.2.1 | Meggyőződj arról, hogy | 0.2.1 |
| háttérportolások | 1.5.0 | alapkép | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | boot - rendszerindítás | 1.3-30 |
| sört főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.7 |
| bslib | 0.9.0 | gyorsítótár | 1.1.0 | hívásindító | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | kronométer | 2.3-62 |
| osztály | 7.3-22 | CLI | 3.6.4 | Clipr | 0.8.0 |
| óra | 0.7.2 | fürt | 2.1.6 | kódolási eszközök | 0.2-20 |
| színterület | 2.1-1 | commonmark | 1.9.5 | fordítóprogram | 4.4.2 |
| config | 0.3.2 | ellentmondásos | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | azonosító adatok | 2.0.2 | göndörít | 6.2.1 |
| adat.táblázat | 1.17.0 | adatkészletek | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Leírás | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | kivonat | 0.6.37 |
| lefelé irányított világítású | 0.4.4 | dplyr (adatmanipulációs csomag az R programozási nyelvhez) | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | három pont | 0.3.2 | kiértékel | 1.0.3 |
| rajongók | 1.0.6 | színek | 2.1.2 | gyorstérkép | 1.2.0 |
| fontawesome | 0.5.3 | elveszettek | 1.0.0 | foreach | 1.5.2 |
| külföldi | 0.8-86 | kovácsol | 0.2.0 | fs | 1.6.5 |
| jövő | 1.34.0 | jövő.alkalmaz | 1.11.3 | gargarizál | 1.5.2 |
| általánosítás | 0.1.3 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globálisok | 0.16.3 | ragasztó | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower-hegység | 1.0.2 |
| grafika | 4.4.2 | grDevices | 4.4.2 | rács | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | védősisak | 1.4.1 | kikötő | 2.5.4 |
| magasabb | 0.11 | HMS | 1.1.3 | HTML-eszközök | 0.5.8.1 |
| HTML-widgetek | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | Azonosítók | 1.0.1 | ini | 0.3.1 |
| iPred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | címkézés | 0.4.3 |
| később | 1.4.1 | rácsszerkezet | 0.22-5 | láva | 1.8.1 |
| életciklus | 1.0.4 | hallgatás | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | Tömeg | 7.3-60.0.1 |
| Mátrix | 1.6-5 | memorizálás | 2.0.1 | módszerek | 4.4.2 |
| mgcv | 1.9-1 | pantomimázás | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| „numDeriv” | 2016. augusztus - 1.1 | openssl (nyílt forráskódú titkosító szoftver) | 2.3.2 | párhuzamos | 4.4.2 |
| párhuzamosan | 1.42.0 | pillér | 1.10.1 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | csomag betöltése | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | dicséret | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | haladás | 1.2.3 |
| progressr | 0.15.1 | ígéretek | 1.3.2 | Próto | 1.0.0 |
| közvetít | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | véletlen erdő (randomForest) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer (egy szoftvercsomag neve) | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reakcióképes | 0.4.4 |
| reactR | 0.6.1 | Readr | 2.1.5 | readxl (Excel fájlokat olvasó programcsomag) | 1.4.5 |
| Receptek | 1.2.0 | Visszavágó | 2.0.0 | visszavágó2 | 2.1.2 |
| Távvezérlők | 2.5.0 | megismételhető példa | 2.1.1 | újraformázás2 | 1.4.4 |
| rlang | 1.1.5 | rmarkdown | 2.29. | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| változatok | 2.1.2 | Szüret | 1.0.4 | Sass | 0.4.9 |
| mérlegek | 1.3.0 | szelekciós eszköz | 0.4-2 | munkamenet-információk | 1.2.3 |
| alakzat | 1.4.6.1 | Fényes | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.0 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| térbeli | 7.3-17 | splinek | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statisztika | 4.4.2 | statisztikák4 | 4.4.2 |
| string | 1.8.4 | stringr | 1.5.1 | túlélés | 3.5-8 |
| magabiztosság | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| Tcl/Tk programozási nyelv és eszközkészlet. | 4.4.2 | testthat | 3.2.3 | szövegformázás | 1.0.0 |
| tibble | 3.2.1 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | időváltás | 0.3.0 | idődátum | 4041.110 |
| tinytex | 0.56 | eszközök | 4.4.2 | tzdb | 0.5.0 |
| URL-ellenőrző | 1.0.1 | ezt használd | 3.1.0 | utf8 | 1.2.4 |
| segédprogramok | 4.4.2 | univerzálisan egyedi azonosító (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | bruum | 1.6.5 |
| Waldo | 0.6.1 | szőrszál | 0.4.1 | valamivel | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML (adat-szerializációs formátum) | 2.3.10 | zeallot | 0.1.0 |
| zip fájl | 2.3.2 |
Telepített Java- és Scala-kódtárak (Scala 2.13 klaszterverzió)
| Csoportazonosító | A tárgy azonosítója | verzió |
|---|---|---|
| ANTLR (Egy másik eszköz a nyelvi felismeréshez) | ANTLR (Egy másik eszköz a nyelvi felismeréshez) | 2.7.7 |
| com.amazonaws | Amazon Kinesis kliens | 1.12.0 |
| com.amazonaws | AWS Java SDK - Automatikus Skálázás | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (AWS Java SDK konfiguráció) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS Java SDK importexport modul | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms (Amazon Web Services Java SDK KMS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-gépi tanulás | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Támogatás | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf könyvtárak | 1.11.22 |
| com.amazonaws | aws-java-sdk-munkaterületek | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | adatfolyam | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java (Databricks Java SDK) | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-árnyékolt | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | osztálytárs | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotációk | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (adatformátum CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson adattípus - Joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1-őslakosok |
| com.github.fommil.netlib | natív rendszer-java | 1.1 |
| com.github.fommil.netlib | natív rendszer-java | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-natív_rendszer-linux-x86_64 | 1.1-őslakosok |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | hibára hajlamos annotációk | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | hozzáférési hiba | 1.0.2 |
| com.google.guava | guáva | 33.4.0-jre |
| com.google.guava | hallgatható jövő | 9999.0-üres-az-ütközés-elkerülése-miatt-guava-val |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profilkészítő | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | forráskód_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (kompressziós algoritmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl (JAXB implementáció) | 2.2.11 |
| com.tdunning | JSON formátum | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lencsék_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-elemzők | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| „commons-codec” | „commons-codec” | 1.17.2 |
| commons-collections (közös gyűjtemények könyvtár) | commons-collections (közös gyűjtemények könyvtár) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-fájlfeltöltés | Commons-fájlfeltöltés | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| közös naplózás | közös naplózás | 1.1.3 |
| közös medence | közös medence | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | légkompresszor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.0 |
| io.dropwizard.metrics | metrikák annotációja | 4.2.30 |
| io.dropwizard.metrics | metrikai magrész | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | mutatók-egészségügyi ellenőrzések | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json (metrikák JSON formátumban) | 4.2.30 |
| io.dropwizard.metrics | JVM-metrikák | 4.2.30 |
| io.dropwizard.metrics | Metrikai szervletek | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all csomag | 4.1.118.Final |
| io.netty | Netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | Netty HTTP kodek | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-zokni | 4.1.118.Final |
| io.netty | netty-közös | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | Verziószám: 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-osztályok | 2.0.70.Final |
| io.netty | Netty-transport | 4.1.118.Final |
| io.netty | netty-szállítási-osztályok-epoll | 4.1.118.Final |
| io.netty | Netty szállítási osztályok - kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (Unix-alapú közös natív szállítás) | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_általános | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway (egyszerű kliens tolókapu) | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | egyszerűgaming_kliens_szervlet_általános | 0.16.1-databricks |
| io.prometheus | egyszerű kliens nyomkövető közös | 0.16.1-databricks |
| io.prometheus | egyszerűkliens_nyomkövető_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | gyűjtő | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktiválás | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | savanyított zöldség | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv (egy CSV-fájlokat kezelő könyvtár) | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-szoftverfejlesztőkészlet (SDK) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | TávoliTea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | karakterláncsablon | 3.2.1 |
| org.apache.ant | hangya | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | nyíl alakú formátum | 18.2.0 |
| org.apache.arrow | nyíl memóriaegység | 18.2.0 |
| org.apache.arrow | Arrow-Memória-Netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-korrekció | 18.2.0 |
| org.apache.arrow | irányvektor | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-kollekciók4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (közös szöveg) | 1.13.0 |
| org.apache.curator | kurátor-ügyfél | 5.7.1 |
| org.apache.curator | kurátor-keretrendszer | 5.7.1 |
| org.apache.curator | receptek kurátortól | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | adatvázlatok-memória | 3.0.2 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop kliens futásideje | 3.4.1 |
| org.apache.hive | hive-beeline (eszköz) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-kliens | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde (sorozatok és deserializáció) | 2.3.10 |
| org.apache.hive | hive-shims (hive kiegészítő modulok) | 2.3.10 |
| org.apache.hive | hive-storage-api (hive tárolási API) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler (méhkas-behúzási-ütemező) | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | borostyánkő | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-elrendezés-sablon-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-formátum | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-illesztékek | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0,9,3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | célközönség megjegyzései | 0.13.0 |
| org.apache.zookeeper | állatkerti gondozó | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | ellenőr-képzettség | 3.43.0 |
| org.codehaus.janino | közösségi fordítóprogram | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-kontinuáció | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http (egy Java HTTP szerver implementáció) | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty webszerver | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty webalkalmazás | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-kommon | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-szerver | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi erőforrás-kereső | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-újracsomagolt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (Jersey konténer szervlet) | 2.41. |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41. |
| org.glassfish.jersey.core | jersey-ügyfél | 2.41. |
| org.glassfish.jersey.core | jersey-közös | 2.41. |
| org.glassfish.jersey.core | jersey-szerver | 2.41. |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41. |
| org.hibernate.validator | hibernate-validator (a Hibernate hitelesítő) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (naplózó rendszer) | 3.4.1.Végleges |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Széljegyzetek | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | teszt-interfész | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest tesztelési keretrendszerrel kompatibilis | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl (nyílt forráskódú szoftver) | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Jótanács
Ha szeretné látni azoknak a Databricks Runtime-verzióknak a kiadási megjegyzéseit, amelyek elérték a támogatás megszűnését (EoS), tekintse meg a Támogatás megszűnéséhez kapcsolódó Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.