Megosztás:


Databricks Runtime 18.0

Az alábbi kibocsátási megjegyzések az Apache Spark 4.1.0 által üzemeltetett Databricks Runtime 18.0-ról nyújtanak információkat.

Az Azure Databricks 2026 januárjában adta ki ezt a verziót.

Új funkciók és fejlesztések

Általánosan elérhető az SQL-szkriptelés

Az SQL-szkriptelési funkció már általánosan elérhető.

Redshift JDBC-illesztő frissítése 2.1.0.28-ra

A Redshift JDBC-illesztő a 2.1.0.28-ra lett frissítve.

Megosztott elkülönítés végrehajtási környezete a Unity Catalog Python UDF-jeihez

Az azonos tulajdonossal rendelkező Unity Catalog Python UDF-jei alapértelmezés szerint megoszthatnak egy elkülönítési környezetet. Ez javíthatja a teljesítményt és csökkentheti a memóriahasználatot az elindítandó különálló környezetek számának csökkentésével.

Annak érdekében, hogy az UDF mindig teljesen izolált környezetben fusson, adja hozzá a STRICT ISOLATION jellemző záradékot. Lásd: Környezetelkülönítés.

SQL-ablakfüggvények metrikanézetekben

Mostantól az SQL-ablakfüggvények metrikanézetekben való használatával kiszámíthatja a futó összegeket, a rangsorolásokat és az egyéb ablakalapú számításokat.

Dinamikus shuffle partícióbeállítások állapotmentes streamelési lekérdezésekben

Mostantól a lekérdezés újraindítása nélkül módosíthatja az állapot nélküli streamelési lekérdezésekben lévő shuffle partíciók számát.

Adaptív lekérdezés végrehajtása és automatikusan optimalizált shuffle állapot nélküli streamelési lekérdezésekben

Az adaptív lekérdezések végrehajtása (AQE) és az automatikusan optimalizált shuffle (AOS) mostantól támogatott az állapot nélküli streamelési lekérdezésekben.

FILTER a mértékösszesítő függvények záradéka a metrikanézetekben

Most már használhatja a FILTER záradékot a mérőszámösszesítő függvényekkel a metrikanézetekben az aggregálásonkénti szűrők meghatározásához, amikor metrikanézet-mértékekre hivatkozik.

Literal stringek egyesítése mindenhol

A szekvenciális karakterlánc-literelek összefűzésének lehetősége, mint amilyen a 'Hello' ' World', kibővült a kifejezéseken kívül bárhol másutt is, ahol karakterlánc-literelek megengedettek. Például: COMMENT 'This' ' is a ' 'comment'. Részletekért lásd STRING a típust .

Paraméterjelölők mindenhol

Mostantól a nevesített (:param) és a névtelen (?) paraméterjelölőket gyakorlatilag bárhol használhatja, ahol a megfelelő típusú literális érték használható. Ide tartoznak a DDL-utasítások paraméterjelölői, például a CREATE VIEW v AS SELECT ? AS c1, az oszloptípusok DECIMAL(:p, :s) vagy a COMMENT ON t IS :comment. Ezzel a képességgel számos SQL-utasítást paraméterezhet anélkül, hogy a kódot SQL-injektálási támadásoknak teszi ki. Részletekért tekintse meg a paraméterjelölőket .

IDENTIFIER záradék mindenhol

Az SQL-objektumnevekre vetítő sztringeket tartalmazó záradék elérési tartományát kibővítették IDENTIFIER, hogy szinte mindenhol elérhető legyen, ahol azonosító megengedett. A literal string egyesítések és a paraméterjelölők fejlesztései mellett mostantól bármire alkalmazhat paraméterezést az oszlop-aliasoktól (AS IDENTIFIER(:name)) az oszlopdefiníciókig bezárólag (IDENTIFIER(:pk) BIGINT NOT NULL). Részletekért lásd IDENTIFIER záradék.

Új BITMAP_AND_AGG függvény

A függvények meglévő kódtára BITMAP egy új BITMAP_AND_AGG függvénnyel lett kerekítve.

Új KLL_Sketch függvénytár

Most már használhat egy új függvénytárat, amely KLL-vázlatokat készít a hozzávetőleges kvantitális számításokhoz:

1.16.0-ra frissített Apache Parquet-kódtár

Az Apache Parquet-kódtár az 1.16.0-s verzióra lett frissítve.

Viselkedési változások

A JDK 21 mostantól az alapértelmezett Java Development Kit

A Databricks Runtime 18.0 a JDK 21-et használja alapértelmezett Java Development Kitként. A JDK 21 általánosan elérhető, és hosszú távú támogatási (LTS) kiadás. Korábban az alapértelmezett JDK 17 volt.

Jelentős változások a JDK 21-ben:

  • Double.toString() és Float.toString() most a legrövidebb egyedi sztring-ábrázolásokat hozza létre, amelyek egyes peremes esetekben eltérhetnek a JDK 17 kimenetétől.
  • Thread.stop(), Thread.suspend() és Thread.resume() most dobja UnsupportedOperationException.
  • A frissített területi adatok (CLDR v42) hatással lehetnek a dátum- és idő- és számformázásra.

Ha kompatibilitási problémákat tapasztal, térjen vissza a JDK 17-esre. További információ a JDK-verziók konfigurálásáról: Fürt létrehozása adott JDK-verzióval. A JDK 17 és a JDK 21 közötti változások teljes listájáért tekintse meg a hivatalos JDK-gyártó kibocsátási megjegyzéseit.

FSCK REPAIR TABLE alapértelmezés szerint metaadat-javítást tartalmaz

A FSCK REPAIR TABLE parancs mostantól tartalmaz egy kezdeti metaadat-javítási lépést a hiányzó adatfájlok keresése előtt. A parancs sérült ellenőrzőpontokkal vagy érvénytelen partícióértékekkel rendelkező táblákon is használható.

Az érték nullázhatósága megmarad a tömb és térkép típusoknál a Spark Connect Scala kliensben.

A tömb- és térképtípusok nullabilitása mostantól megmarad a Spark Connect Scala-ügyfél beírt literáljainak esetében. Korábban a tömbök és a térképek értékei mindig null értékűek voltak.

FSCK REPAIR TABLE DRY RUN kimeneti séma frissítve

A dataFilePath oszlop a FSCK REPAIR TABLE DRY RUN kimeneti sémában mostantól nullázható az új problématípusok jelentésének támogatásához, ha az adatfájl elérési útja nem alkalmazható.

SHOW TABLES DROPPED respects LIMIT klauzula

A SHOW TABLES DROPPED parancs most már helyesen betartja a záradékot LIMIT .

Az olvasások és az automatikusan optimalizált írások között igazított prorációs tényezők

A partícióméretezés prorációs tényezői mostantól következetesen használják a tört értékeket az olvasási műveletek és az automatikusan optimalizált írások között. Ez a módosítás eltérő számú feladatot eredményezhet az olvasási műveletekhez.

Python UDF-végrehajtás egységesítve a PySparkban és a Unity-katalógusban

A Unity Catalog Python UDF-jei mostantól az Apache Arrowt használják alapértelmezett csereformátumként, javítva az általános teljesítményt, és igazodnak a Nyíloptimalizált Python UDF-ek viselkedéséhez az Apache Sparkban. Ennek a változásnak a részeként a TIMESTAMP Python UDF-eknek átadott értékek már nem tartalmazzák az időzónával kapcsolatos információkat az datetime objektum attribútumában tzinfo . Maguk az időbélyegértékek UTC-ben maradnak, de az időzóna metaadatait a rendszer most elveti.

Ha az UDF az időzónára vonatkozó információkra támaszkodik, helyre kell állítania azt a date = date.replace(tzinfo=timezone.utc) használatával. További információkért tekintse meg az időbélyeg időzónának viselkedését a bemenetek esetében.

Továbbfejlesztett hibaüzenetek a Kafka összekötő bejelentkezési modul problémáihoz

Ha a Kafka-összekötőt nem árnyékolt bejelentkezési modulosztálysal használja, az Azure Databricks mostantól olyan hibaüzeneteket biztosít, amelyek a megfelelő árnyékolt osztályelőtag (kafkashaded.org.apache.kafka vagy kafkashaded.software.amazon.msk.auth.iam) használatát javasolják.

Időutazási korlátozások és VACUUM megőrzési viselkedés

Az Azure Databricks mostantól letiltja az összes tábla küszöbértékén túli deletedFileRetentionDuration időutazási lekérdezéseket. A VACUUM parancs figyelmen kívül hagyja a megőrzési időtartam argumentumát, kivéve, ha az érték 0 óra. Nem állíthat be deletedFileRetentionDuration nagyobb értéket, mint logRetentionDuration vagy fordítva.

BinaryType alapértelmezés szerint a bytes-re leképeződik a PySparkban

A PySparkbanBinaryType most már konzisztensen a Pythonra byteslesz leképezve. Korábban a PySpark a BinaryType elemet a kontextustól függően a bytes vagy a bytearray elemnek feleltette meg. A régi viselkedés visszaállításához állítsa a spark.sql.execution.pyspark.binaryAsBytes értéket false-re.

NULL struktúrák megtartása a Delta MERGE, UPDATE és streamelési írási műveletek során

A NULL-szerkezetek mostantól NULL értékként maradnak meg a Delta MERGE-ben, valamint a strukturált típuskonverziót tartalmazó streamelési írási műveletekben. Korábban a NULL-szerkezetek ki lettek bontva NULL mezőkkel rendelkező szerkezetekre. A NULL struktúra mostantól NULL marad, ahelyett, hogy az összes NULL mezővel rendelkező struktúrává alakult volna.

Parquet-fájlokban materializált partícióoszlopok

A particionált Delta-táblák mostantól az újonnan megírt Parquet formátumú adatfájlokban megjelenítik a partícióoszlopokat. Korábban a partícióértékek a Delta tranzakciónapló metaadataiban voltak tárolva, és a könyvtárak elérési útvonalaiban tükröződtek vissza, azonban nem jelentek meg oszlopként magukban a Parquet-fájlokban. Ez a módosítás megfelel az Apache Iceberg és az UniForm viselkedésének, és hatással lehet azokra a számítási feladatokra, amelyek közvetlenül olvassák a Delta Lake által írt Parquet-fájlokat, mivel az újonnan írt fájlok további partícióoszlopokat tartalmaznak.

Az időbélyeg-partíció értékei most már megfelelnek a Spark-munkamenet időzónáinak

Korábban az időbélyeg partícióértékeket helytelenül konvertálták UTC-vé a JVM időzónával a spark.sql.session.timeZone konfiguráció tiszteletben tartása helyett. Az időbélyeg-partíció értékei a Spark-munkamenet időzónának beállításával megfelelően vannak módosítva.

DESCRIBE TABLE a kimenet metaadatoszlopot tartalmaz

A kimenet DESCRIBE TABLE [EXTENDED] mostantól minden táblatípushoz tartalmaz egy új metadata oszlopot. Ez az oszlop JSON-sztringként definiált szemantikai metaadatokat (megjelenítendő nevet, formátumot és szinonimákat) tartalmaz.

Könyvtárfrissítések

Frissített Python-kódtárak:

  • anyio 4.6.2-től 4.7.0-ra
  • asttokens 2.0.5-ről 3.0.0-ra
  • azure-core 1.34.0-tól 1.37.0-sig
  • azure-mgmt-core 1.5.0-ról 1.6.0-ra
  • azure-storage-blob 12.23.0-ról 12.28.0-ra
  • azure-storage-file-datalake 12.17.0-tól 12.22.0-ra
  • boto3 1.36.2 és 1.40.45 között
  • botocore 1.36.3-tól 1.40.45-ösig
  • minősítés 2025.1.31-től 2025.4.26-ra
  • kattintson a 8.1.7-ről a 8.1.8-ra
  • titkosítás 43.0.3 és 44.0.1 között
  • Cython 3.0.12-től 3.1.5-ig
  • databricks-sdk 0.49.0 és 0.67.0 között
  • 1.2.13 és 1.2.18 közötti verziók elavultnak minősítve
  • végrehajtás a 0.8.3-tól az 1.2.0-sig
  • fastapi 0.115.12-től 0.128.0-ra
  • filelock 3.18.0-tól 3.17.0-ra
  • google-api-core 2.20.0-tól 2.28.1-esig
  • google-hitelesítés 2.40.0-tól 2.47.0-ig
  • google-cloud-core 2.4.3-tól 2.5.0-ra
  • google-cloud-storage 3.1.0 és 3.7.0 között
  • google-crc32c 1.7.1 és 1.8.0 között
  • google-resumable-media 2.7.2-től 2.8.0-ra
  • h11 0.14.0 és 0.16.0 között
  • httpcore 1.0.2 és 1.0.9 között
  • httpx 0.27.0-ról 0.28.1-re
  • isodate 0.6.1 és 0.7.2 között
  • Jinja2 3.1.5-től 3.1.6-osig
  • jupyter-események 0.10.0 és 0.12.0 között
  • jupyter-lsp 2.2.0 és 2.2.5 között
  • jupyter_server 2.14.1-től 2.15.0-ra
  • jupyter_server_terminals 0.4.4-től 0.5.3-ra
  • mistune 2.0.4-ről 3.1.2-re
  • mlflow-skinny 3.0.1-től 3.8.1-esig
  • mmh3 5.1.0-tól 5.2.0-ig
  • Az msal 1.32.3 verzióról 1.34.0 verzióra történő frissítés.
  • nbclient 0.8.0-tól 0.10.2-ig
  • nbconvert 7.16.4-ről 7.16.6-ra
  • nodeenv 1.9.1 és 1.10.0 között
  • notebook_shim 0.2.3-ról 0.2.4-re
  • opentelemetry-api 1.32.1-től 1.39.1-esig
  • opentelemetry-sdk 1.32.1 és 1.39.1 között
  • opentelemetry-szemantic-conventions from 0.53b1 to 0.60b1
  • platformdirs 3.10.0 és 4.3.7 között
  • prometheus_client 0.21.0 és 0.21.1 között
  • proto-plus 1.26.1-től 1.27.0-ra
  • psycopg2 2.9.3–2.9.11
  • pyarrow 19.0.1-től 21.0.0-ra
  • Pygments 2.15.1–2.19.1
  • pyiceberg 0.9.0-ról 0.10.0-ra
  • python-lsp-server 1.12.0 és 1.12.2 között
  • kötél 1.12.0-tól 1.13.0-ra
  • s3transfer 0.11.3-tól 0.14.0-ra
  • scipy 1.15.1 verzióról 1.15.3 verzióra
  • setuptools 74.0.0-tól 78.1.1-ig
  • hat az 1.16.0-tól az 1.17.0-sig
  • sqlparse frissítése 0.5.3-ról 0.5.5-re
  • stack-data 0.2.0-tól 0.6.3-ig
  • starlette 0.46.2-től 0.50.0-ra
  • tornádó 6.4.2 és 6.5.1 között
  • types-python-dateutil 2.9.0.20241206-tól 2.9.0.20251115-ig
  • uvicorn 0.34.2-től 0.40.0-ra
  • webcolors 24.11.1-től 25.10.0-ig

Frissített R-kódtárak:

  • nyíl 19.0.1-től 22.0.0-ra
  • 4.4.2 és 4.5.1 közötti alapverzió
  • bigD 0.3.0 és 0.3.1 között
  • seprű 1.0.7 és 1.0.10 között
  • óra 0.7.2-től 0.7.3-ra
  • commonmark frissítése 1.9.5-ről 2.0.0-ra
  • fordító 4.4.2-es verzióról 4.5.1-es verzióra
  • hitelesítő adatok 2.0.2-től 2.0.3-ra
  • curl verzió 6.4.0-ról 7.0.0-ra
  • data.table 1.17.0 és 1.17.8 között
  • 4.4.2 és 4.5.1 közötti adatkészletek
  • dbplyr 2.5.0 és 2.5.1 között
  • devtools 2.4.5-től 2.4.6-osig
  • diffobj 0.3.5-től 0.3.6-osig
  • kivonat 0.6.37-től 0.6.39-ig
  • downlit 0.4.4-ről 0.4.5-re
  • dtplyr 1.3.1-től 1.3.2-esig
  • kiértékelés 1.0.3-tól 1.0.5-ig
  • fansi 1.0.6-ról 1.0.7-re
  • forcats 1.0.0-tól 1.0.1-ig
  • fs 1.6.5-től 1.6.6-osig
  • verziófrissítés 1.34.0-tól 1.68.0-ra
  • future.apply 1.11.3-tól 1.20.0-ig
  • gargle verzió 1.5.2-ről 1.6.0-ra
  • gert 2.1.4-től 2.2.0-ra
  • ggplot2 3.5.1 és 4.0.1 között
  • gh 1.4.1 és 1.5.0 között
  • git2r 0.35.0-tól 0.36.2-től
  • glmnet 4.1-8-tól 4.1-10-hez
  • googledrive 2.1.1-től 2.1.2-re
  • googlesheets4 1.1.1 és 1.1.2 között
  • 4.4.2 és 4.5.1 közötti grafikus elemek
  • grDevices 4.4.2-ről 4.5.1-re
  • rács 4.4.2 és 4.5.1 között
  • gt 0.11.1-től 1.1.0-ra
  • hardhat 1.4.1 és 1.4.2 között
  • 2.5.4-es verzióról 2.5.5-es verzióra
  • hms 1.1.3-ról 1.1.4-re
  • httpuv 1.6.15-től 1.6.16-osig
  • httr2 1.1.1 és 1.2.1 között
  • jsonlite 1.9.1-től 2.0.0-ra
  • később 1.4.1-ről 1.4.4-re
  • láva 1.8.1 és 1.8.2 között
  • listenv 0.9.1-től 0.10.0-ra
  • magrittr 2.0.3–2.0.4
  • markdown 1.13-ból 2.0-ra
  • módszerek 4.4.2–4.5.1
  • miniUI 0.1.1.1 és 0.1.2 között
  • mlflow 2.20.4-től 3.6.0-ra
  • openssl 2.3.3-ról 2.3.4-re
  • 4.4.2 és 4.5.1 közötti párhuzamos
  • párhuzamosan az 1.42.0-tól az 1.45.1-ig
  • pillér verziófrissítése 1.11.0-ról 1.11.1-re
  • pkgbuild 1.4.6-tól 1.4.8-ra
  • pkgdown 2.1.1-től 2.2.0-ra
  • pkgload 1.4.0 és 1.4.1 között
  • pROC 1.18.5–1.19.0.1 között
  • prodlim 2024.06.25-től 2025.04.28-ra
  • progressr frissítése 0.15.1-ről 0.18.0-ra
  • ígéretek 1.3.2-től 1.5.0-ig
  • ps 1.9.0 és 1.9.1 között
  • purrr 1.0.4-től 1.2.0-ra
  • ragg 1.3.3-tól 1.5.0-ra
  • Rcpp 1.0.14-től 1.1.0-ra
  • readr 2.1.5-verzióról 2.1.6-verzióra
  • receptek 1.2.0-tól 1.3.1-től
  • reshape2 1.4.4-ről 1.4.5-re
  • rmarkdown 2.29-től 2.30-ig
  • roxygen2 7.3.2-től 7.3.3-ig
  • rprojroot 2.0.4-től 2.1.1-ig
  • RSQLite 2.3.9-től 2.4.4-esig
  • 2.1.2 és 3.0.0 közötti átirányítások
  • rvest 1.0.4 és 1.0.5 között
  • sass 0.4.9-ről 0.4.10-re
  • skálázás 1.3.0-ról 1.4.0-ra
  • fényes 1.10.0 és 1.11.1 között
  • sparklyr frissítése 1.9.1-ről 1.9.3-ra
  • SparkR 4.0.0 és 4.1.0 között
  • sparsevctrs 0.3.1-ről 0.3.4-re
  • Spline-ok 4.4.2-ről 4.5.1-re
  • 4.4.2 és 4.5.1 közötti statisztikák
  • stats4 4.4.2-tól 4.5.1-ig
  • stringr 1.5.1-ről 1.6.0-ra
  • systemfonts 1.2.1-ről 1.3.1-re
  • tcltk 4.4.2 és 4.5.1 között
  • A testthat 3.2.3 verziótól a 3.3.0 verzióig frissítve
  • 1.0.0 és 1.0.4 közötti szövegformázás
  • timeDate 4041.110-tól 4051.111-ig
  • tinytex 0,56-tól 0,58-ra
  • 4.4.2 és 4.5.1 közötti eszközök
  • usethis 3.1.0 verzióról 3.2.1 verzióra
  • utils 4.4.2-ről 4.5.1-re
  • V8 6.0.2 és 8.0.1 között
  • vroom 1.6.5-től 1.6.6-osig
  • waldo 0.6.1 és 0.6.2 között
  • xfun 0,51 és 0,54 között
  • xml2 1.3.8-tól 1.5.0-ra
  • zeallot 0.1.0-tól 0.2.0-ra
  • zip 2.3.2-ről 2.3.3-ra

Frissített Java-kódtárak:

  • com.amazonaws.amazon-kinesis-client 1.12.0 és 1.15.3 között
  • com.amazonaws.aws-java-sdk-autoscaling verziója frissül 1.12.638-ról 1.12.681-re
  • com.amazonaws.aws-java-sdk-cloudformation from 1.12.638 to 1.12.681
  • com.amazonaws.aws-java-sdk-cloudfront 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-cloudhsm 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-cloudsearch 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-cloudtrail 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-cloudwatch 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-cloudwatchmetrics 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-codedeploy 1.12.638-ről 1.12.681-re
  • com.amazonaws.aws-java-sdk-cognitoidentity 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-cognitosync 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-config 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-core 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-datapipeline 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-directconnect 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-directory 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-dynamodb 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-ec2 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-ecs 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-efs verziók 1.12.638-tól 1.12.681-ig
  • com.amazonaws.aws-java-sdk-elasticache 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-elasticbeanstalk 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-elasticloadbalancing from 1.12.638 to 1.12.681
  • com.amazonaws.aws-java-sdk-elastictranscoder 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-emr 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-glacier 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-glue 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-iam 1.12.638-tól 1.12.681-ig
  • com.amazonaws.aws-java-sdk-importexport 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-kinesis 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-kms 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-lambda 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-logs 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-machinelearning verzióról 1.12.638 1.12.681-re
  • com.amazonaws.aws-java-sdk-opsworks 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-rds 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-redshift 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-route53 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-s3 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-ses 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-simpledb 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-simpleworkflow 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-sns 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-sqs 1.12.638-tól 1.12.681-esig
  • com.amazonaws.aws-java-sdk-ssm 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-storagegateway 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-sts 1.12.638 és 1.12.681 között
  • com.amazonaws.aws-java-sdk-support 1.12.638–1.12.681
  • com.amazonaws.aws-java-sdk-workspaces veriószámot 1.12.638-ról 1.12.681-re
  • com.amazonaws.jmespath-java 1.12.638 és 1.12.681 között
  • com.databricks.databricks-sdk-java 0.27.0-tól 0.53.0-ra
  • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 2.18.2 és 2.18.3 között
  • com.github.luben.zstd-jni 1.5.6-10-től 1.5.7-6-ig
  • com.google.flatbuffers.flatbuffers-java 24.3.25-ről 25.2.10-re
  • com.google.guava.failureaccess 1.0.2-től 1.0.3-ra
  • com.google.guava.guava 33.4.0-jre-ről 33.4.8-jre-re
  • com.microsoft.sqlserver.mssql-jdbc 11.2.3.jre8 verzióról a 12.8.0.jre8 verzióra
  • commons-cli.commons-cli 1.9.0 és 1.10.0 között
  • commons-codec.commons-codec 1.17.2 és 1.19.0 között
  • commons-fileupload.commons-fileupload verzióját 1.5-ről 1.6.0-ra frissítve/átváltva
  • commons-io.commons-io 2.18.0 és 2.21.0 között
  • dev.ludovic.netlib.arpack 3.0.3 és 3.0.4 között
  • dev.ludovic.netlib.blas 3.0.3 és 3.0.4 között
  • dev.ludovic.netlib.lapack 3.0.3 és 3.0.4 között
  • io.dropwizard.metrics.metrics-annotation 4.2.30-ról 4.2.37-re
  • io.dropwizard.metrics.metrics-core 4.2.30-ről 4.2.37-re
  • io.dropwizard.metrics.metrics-graphite 4.2.30-ról 4.2.37-re
  • io.dropwizard.metrics.metrics-healthchecks 4.2.30-tól 4.2.37-ig
  • io.dropwizard.metrics.metrics-jmx 4.2.30 és 4.2.37 között
  • io.dropwizard.metrics.metrics-json 4.2.30 és 4.2.37 között
  • io.dropwizard.metrics.metrics-jvm 4.2.30 verzióról 4.2.37 verzióra
  • io.dropwizard.metrics.metrics-servlets frissítve 4.2.30-ról 4.2.37-re
  • io.netty.netty-all 4.1.118.Final-ről 4.2.7.Final-re
  • io.netty.netty-buffer 4.1.118.Final-tól 4.2.7.Final-ig
  • io.netty.netty-codec 4.1.118.Final-ról 4.2.7.Final-re
  • io.netty.netty-codec-http-tól 4.1.118.Final-ig 4.2.7.Final
  • io.netty.netty-codec-http2-tól 4.1.118.Final-re 4.2.7.Final-re
  • io.netty.netty-codec-socks 4.1.118.Final-ról 4.2.7.Final-re
  • io.netty.netty-common a 4.1.118.Final verzióról 4.2.7.Final verzióra
  • io.netty.netty-handler 4.1.118.Final-ról 4.2.7.Final-ra
  • io.netty.netty-handler-proxy 4.1.118.Final verzióról a 4.2.7.Final verzióra
  • io.netty.netty-resolver verzióról 4.1.118.Final verzióra 4.2.7.Final
  • io.netty.netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64 2.0.74.Final-db-r0-windows-x86_64
  • io.netty.netty-tcnative-classes 2.0.70.Final-2.0.74.Final
  • io.netty.netty-transport verzió 4.1.118.Final-ról 4.2.7.Final-re
  • io.netty.netty-transport-classes-epoll 4.1.118.Final-4.2.7.Final
  • io.netty.netty-transport-classes-kqueue 4.1.118.Final tól 4.2.7.Final ig
  • io.netty.netty-transport-native-epoll a 4.1.118.Final-linux-x86_64 verzióról a 4.2.7.Final-linux-x86_64 verzióra
  • io.netty.netty-transport-native-kqueue 4.1.118.Final-osx-x86_64-ról/-ről 4.2.7.Final-osx-x86_64-ra/-re
  • io.netty.netty-transport-native-unix-common frissítése 4.1.118.Final-ról 4.2.7.Final-re
  • joda-time.joda-time 2.13.0 és 2.14.0 között
  • org.apache.arrow.arrow-format 18.2.0-ról 18.3.0-ra
  • org.apache.arrow.arrow-memory-core 18.2.0-ról 18.3.0-ra
  • org.apache.arrow.arrow-memory-netty 18.2.0-ról 18.3.0-ra
  • org.apache.arrow.arrow-memory-netty-buffer-patch frissítése a 18.2.0-ról a 18.3.0-ra
  • org.apache.arrow.arrow-vector 18.2.0-ról 18.3.0-ra frissítve
  • org.apache.avro.avro 1.12.0 és 1.12.1 között
  • org.apache.avro.avro-ipc 1.12.0 és 1.12.1 között
  • org.apache.avro.avro-mapred 1.12.0-ról 1.12.1-re
  • org.apache.commons.commons-collections4 4.4-től 4.5.0-s verzióig
  • org.apache.commons.commons-compress verzióról 1.27.1 1.28.0-ra
  • org.apache.commons.commons-lang3 3.17.0 és 3.19.0 között
  • org.apache.commons.commons-text 1.13.0 és 1.14.0 között
  • org.apache.curator.curator-client 5.7.1 és 5.9.0 között
  • org.apache.curator.curator-framework 5.7.1-től 5.9.0-s verzióig
  • org.apache.curator.curator-recipes 5.7.1-ról 5.9.0-ra
  • org.apache.datasketches.datasketches-java változik 6.1.1-ről 6.2.0-ra
  • org.apache.hadoop.hadoop-client-runtime 3.4.1-ről 3.4.2-re
  • org.apache.orc.orc-core 2.1.1-shaded-protobuf-ból 2.2.0-shaded-protobuf-ra
  • org.apache.orc.orc-format 1.1.0-shaded-protobuf verzióról 1.1.1-shaded-protobuf verzióra
  • Az org.apache.orc.orc-mapreduce verziókövetés: 2.1.1-shaded-protobuf-ról 2.2.0-shaded-protobuf-ra.
  • org.apache.orc.orc-shims frissítése 2.1.1-ről 2.2.0-ra
  • org.apache.xbean.xbean-asm9-shaded 4.26-tól 4.28-ig
  • org.apache.zookeeper.zookeeper frissítése 3.9.3-ról 3.9.4-re
  • org.apache.zookeeper.zookeeper-jute 3.9.3 és 3.9.4 között
  • org.eclipse.jetty.jetty-client 9.4.53.v20231009 és 10.0.26 között
  • org.eclipse.jetty.jetty-http 9.4.53.v20231009-től 10.0.26-ig
  • org.eclipse.jetty.jetty-io frissítve a 9.4.53.v20231009-ről 10.0.26-ra
  • org.eclipse.jetty.jetty-jndi frissítés 9.4.53.v20231009 verzióról 10.0.26 verzióra
  • org.eclipse.jetty.jetty-plus verzió 9.4.53.v20231009-ről 10.0.26-ra
  • org.eclipse.jetty.jetty-proxy 9.4.53.v20231009-ről 10.0.26-ra
  • org.eclipse.jetty.jetty-security változatának frissítése a 9.4.53.v20231009-ról a 10.0.26-ra
  • org.eclipse.jetty.jetty-server 9.4.53.v20231009-ről 10.0.26-ra
  • org.eclipse.jetty.jetty-servlet 9.4.53.v20231009-ról 10.0.26-ra
  • org.eclipse.jetty.jetty-servlets 9.4.53.v20231009-ról 10.0.26-ra
  • org.eclipse.jetty.jetty-util 9.4.53.v20231009-ről 10.0.26-ra
  • org.eclipse.jetty.jetty-webapp 9.4.53.v20231009-ről 10.0.26-ra
  • org.eclipse.jetty.jetty-xml 9.4.53.v20231009-ről 10.0.26-ra
  • org.mlflow.mlflow-spark_2.13 2.9.1-től 2.22.1-esig
  • org.objenesis.objenesis verzió 3.3-ról 3.4-re
  • org.scala-lang.modules.scala-xml_2.13 2.3.0 és 2.4.0 között

Apache Spark

A Databricks Runtime 18.0 tartalmazza az Apache Spark 4.1.0-t. Ez a kiadás tartalmazza az előző verzióban szereplő összes Spark-javítást és fejlesztést, valamint a következőket:

  • SPARK-54182 "[SQL][python] A df.toPandas nem nyílból való konvertálásának optimalizálása"
  • SPARK-54134 Az Arrow memória használatának optimalizálása
  • SPARK-54536 Hiányzó Shuffle FetchWaitTime gyűjtési költség ügyfél/várakozási idő alapján
  • SPARK-54534 Hive-hez kapcsolódó örökölt hibakódok migrálása a megfelelő hibafeltételekbe
  • SPARK-54565 A SparkBuildInfo-nak be kell töltenie spark-version-info.properties a saját osztálybetöltőjét
  • SPARK-54533 Metrika ExecutorSource.METRIC_RESULT_SIZE beállítása helyes értékkel
  • SPARK-54478 Streamelési tesztek újbóli engedélyezése a kapcsolat kompatibilitás teszt CI folyamatához
  • SPARK-54552 Javítás SparkConnectResultSet.getString a bináris adattípus kezeléséhez UTF_8 alkalmazásával
  • SPARK-54501 A Hive metaadattár partíciószűrő hibáinak hibakezelésének javítása
  • SPARK-54550 Finoman kezelése ConnectExceptionSparkConnectStatement.close()
  • SPARK-54020 Python API támogatása spark.sql(...) a Spark Deklaratív folyamat lekérdezési függvényén belül
  • SPARK-53127 Az összes korlátlan rekurzió javítása a CTE normalizálásával
  • SPARK-50072 Az ArithmeticException kezelése nagy értékekkel történő intervallum-elemzés során
  • SPARK-54299 Hibás példa lekérdezés kijavítása a következőben: WindowGroupLimit
  • SPARK-54505 A createMetrics-hívás argumentumsorrendjének javítása a makeNegative függvényben
  • SPARK-54462 Mixin hozzáadása SupportsV1OverwriteWithSaveAsTable a következőhöz: TableProvider
  • SPARK-54540 Néhány kisebb javítás a Connect JDBC-illesztőhöz
  • SPARK-54508 Javítás spark-pipelines a fájl elérési útjának hatékonyabb megoldásához spec
  • SPARK-54087 A Spark-végrehajtó indítási feladatának sikertelennek kell lennie, ha a feladat leállt üzenetét adja vissza
  • SPARK-53797 Javítás FileStreamSource.takeFilesUntilMax a zipWithIndex használatának elkerülésére a indices használatával
  • SPARK-54418 Hibaüzenetek és kódformázás javítása
  • SPARK-54114 Támogatás a getColumns funkcióhoz a SparkConnectDatabaseMetaData-ban
  • SPARK-54209 A SPARKConnectResultSet időbélyeg-típusának támogatása
  • SPARK-54208 Támogatási idő típusa a SparkConnectResultSetben
  • SPARK-54528 Zárja be az URLClassLoadert, hogy elkerülje az OOM-t
  • SPARK-54464 Ismétlődő output.reserve hívások eltávolítása assembleVariantBatch
  • SPARK-53635 A Scala UDF-ek támogatása Seq[Row] típusú bemeneti arg-ekkel
  • SPARK-54493 MapType-hoz tartozó assertSchemaEqual funkció javítása
  • SPARK-52515 A approx_top_k tesztelése be- és kikapcsolt jelzővel
  • SPARK-54413 A Bootstrap 4.4.1-s verziójának frissítése a 4.6.2-re
  • SPARK-54497 Alkalmazása functools.lru_cache a konverter gyorsítótárban
  • SPARK-54306 Variant-oszlopok jegyzetelése Variant logikai típusú széljegyzetekkel
  • SPARK-54350 A SparkGetColumnsOperation ORDINAL_POSITION 1-alapúnak kell lennie
  • SPARK-54130 Részletes hibaüzenetek hozzáadása katalógus-érvényesítési hibákhoz
  • SPARK-54220 NullType/VOID/UNKNOWN típusok támogatása a Parquet fájlszerkezetben
  • SPARK-54163 A particionálási és rendezési információk kanonikalizációjának vizsgálata
  • SPARK-54377 Az IS NULL érték javítása COMMENT ONTABLE a táblázat megjegyzésének megfelelő eltávolításához
  • SPARK-52767 A maxRows és a maxRowsPerPartition optimalizálása csatlakozáshoz és egyesítéshez
  • SPARK-54063 Pillanatkép aktiválása a következő köteghez feltöltési késés esetén
  • SPARK-54384 A BatchedSerializer _batched metódusának modernizálása
  • SPARK-54378 Eltávolítás CreateXmlParser.scala a modulból catalyst
  • SPARK-53103 "[SC-204946][ss] Hibajelzés, ha az állapotkönyvtár nem üres a lekérdezés indításakor"
  • SPARK-53103 Hibajelzés, ha az állapotkönyvtár nem üres a lekérdezés indításakor
  • SPARK-54397 Hasholhatóvá tétel UserDefinedType
  • SPARK-54440 Adja meg az alapértelmezett folyamatspektrálfájl idiomatikus nevét, spark-pipeline.yml
  • SPARK-54324 Teszt hozzáadása ügyfél-felhasználó-környezet bővítményekhez
  • SPARK-54456 Munkavégző modul importálása elágazás után a holtpont elkerülése érdekében
  • SPARK-54427 A ColumnarRow meghívásának copy engedélyezése variánstípusokkal
  • SPARK-54136 tervösszevonási logika kinyerése -ből MergeScalarSubqueries-ba
  • SPARK-54389 A RocksDB State Store érvénytelen bélyeghiba kijavítása, ha a feladat sikertelenként van megjelölve az inicializálás során
  • SPARK-54346 Állapot-újrapartíciós API és újraparticionálási futó bemutatása
  • SPARK-53809 Canonicalization hozzáadása a DataSourceV2ScanRelation szolgáltatáshoz
  • SPARK-54280 Folyamatellenőrzési pont tárterületének abszolút elérési úthoz való megkövetelése
  • SPARK-54206 BINÁRIS típusú adatok támogatása a SparkConnectResultSetben
  • SPARK-54319 BHJ LeftAnti frissítésnél a kimeneti sorok száma helytelen, amikor a kódfajgenerálás le van tiltva
  • SPARK-54355 Készítsen spark.connect.session.planCompression.defaultAlgorithm támogatási NONE
  • SPARK-54341 Jegyezd meg a TimeTravelSpec-et azoknál a tábláknál, amelyeket a TableProvider segítségével töltöttél be.
  • SPARK-54280 Visszaállítás "[SC-212148][sdp] A folyamat-ellenőrzőpont-tároló dir abszolút elérési útjának megkövetelése"
  • SPARK-54354 Javítás a Spark elakadásának orvoslására, amikor nincs elegendő JVM heap memória a szórt hash reláció számára
  • SPARK-54439 A KeyGroupedPartitioning és az illesztés kulcsmérete nem egyezik
  • SPARK-54280 Folyamatellenőrzési pont tárterületének abszolút elérési úthoz való megkövetelése
  • SPARK-54395 A RemoteBlockPushResolver osztály ismételten inicializálja az ObjectMappert
  • SPARK-54207 Támogatja a Dátum típusú adatokat a SparkConnectResultSetben
  • SPARK-54182 A nyíl nélküli konvertálás optimalizálása df.toPandas
  • SPARK-54312 Ne ütemezzenek ismétlődően feladatokat a SendHeartbeat/WorkDirClean különálló feldolgozóban
  • SPARK-54394 Áthelyezni isJavaVersionAtMost17 és isJavaVersionAtLeast21core-ból common/utils-ba
  • SPARK-53927 Kinesis-ügyfél frissítése
  • SPARK-54358 Ellenőrzőpont-dirs ütközik, ha a különböző sémákban lévő streamelési táblák neve megegyezik
  • SPARK-54310 Revert "[SC-212003][sql] Metrika hozzáadása numSourceRows címre MergeIntoExec"
  • SPARK-54310 Metrika hozzáadása numSourceRows a következőhöz: MergeIntoExec
  • SPARK-53322 Csak akkor válassza ki a KeyGroupedShuffleSpec paramétert, ha az illesztés kulcspozíciói teljes mértékben leküldhetők
  • SPARK-54270 A SparkConnectResultSet get* metódusnak meg kell hívnia a checkOpen metódust, és ellenőriznie kell az index határát
  • SPARK-53849 A netty és a netty tc natív frissítése
  • SPARK-54205 Decimális típusú adatok támogatása a SparkConnectResultSetben
  • SPARK-54417 A skaláris allekérdezés hibaüzenetét kijavítottuk a IDENTIFIER záradékban
  • SPARK-54113 A SparkConnectDatabaseMetaData getTables lekérdezésének támogatása
  • SPARK-54303 Hibafeltétel normalizálása MISSING_CATALOG_ABILITY
  • SPARK-54153 Profilkészítési iterátoralapú Python-UDF-ek támogatása
  • SPARK-54349 Kód újrabontása a hibakezelő integrációs bővítményének egyszerűsítése érdekében
  • SPARK-54317 Az Arrow konvertálási logika egységesítése a Klasszikus és Connect toPandas számára
  • SPARK-54339 Az attribútumtérkép nem determinizmusának javítása
  • SPARK-54112 Támogatja a getSchemas-t a SparkConnectDatabaseMetaData számára.
  • SPARK-54180 A BinaryFileFormat toString parancsának felülbírálása
  • SPARK-54213 Python 3.9 eltávolítása a Spark Connectből
  • SPARK-54215 A SessionStateHelper tulajdonság hozzáadása a FilePartitionhoz
  • SPARK-54115 A kapcsolati szerver műveleti szálainak megjelenítési sorrendjének növelése a szálkiírási oldalon.
  • SPARK-54193 Elavult spark.shuffle.server.finalizeShuffleMergeThreadsPercent
  • SPARK-54149 A tail-recursion engedélyezése, ahol csak lehetséges
  • SPARK-54185 Elhagyott spark.shuffle.server.chunkFetchHandlerThreadsPercent
  • A SPARK-54056 feloldja az SQLConf-beállítások helyettesítését a katalógusokban
  • SPARK-54147 A OMP_NUM_THREADS beállítása alapértelmezés szerint spark.task.cpus értékre a BaseScriptTransformationExecben
  • SPARK-54229 PySparkLogger létrehozása az UDF-ben naplófüggvény-hívásonként egy naplóbejegyzés tárolására
  • SPARK-53337 XSS: Győződjön meg arról, hogy az alkalmazás neve a history page-en helyesen escape-elt legyen
  • SPARK-54229 Az "[SC-211321][python] A PySparkLogger UDF-ekben naplófüggvény-hívásonként egy naplóbejegyzést tároló működésének visszaállítása" visszavonása
  • SPARK-54373 A Feladat DAG inicializálásának SVG viewBox attribútumának nagyítása
  • SPARK-54323 Változtassuk meg a naplók elérésének módját úgy, hogy a rendszernézet helyett a TVF-t használjuk.
  • SPARK-54229 PySparkLogger létrehozása az UDF-ben naplófüggvény-hívásonként egy naplóbejegyzés tárolására
  • SPARK-53978 A naplózás támogatása az illesztőprogram-oldali feldolgozókban
  • SPARK-54146 Elavult Jackson API használatának törlése
  • SPARK-54383 Az InternalRowComparableWrapper util előre elkészített sémavariánsának hozzáadása
  • SPARK-54030 Felhasználóbarát helyességi üzenet hozzáadása a metaadatok sérülésének megtekintéséhez
  • SPARK-54144 Rövidzárlatú Eval típusú következtetések
  • SPARK-54030 Visszavonás: "[SC-210301][sql] Felhasználóbarát hibaüzenet hozzáadása a nézet metaadatainak sérülése esetén"
  • SPARK-54028 Üres séma használata olyan nézet módosításakor, amely nem Hive-kompatibilis
  • SPARK-54030 Felhasználóbarát helyességi üzenet hozzáadása a metaadatok sérülésének megtekintéséhez
  • SPARK-54085 Javítás initialize az opció hozzáadásához CREATE a következő helyen: DriverRunner
  • SPARK-53482MERGE INTO támogatás, ha a forrás kevésbé beágyazott mezővel rendelkezik, mint a cél
  • SPARK-53905 A RelationResolution újrabontása a kód újrafelhasználásának engedélyezéséhez
  • SPARK-53732 A TimeTravelSpec megjegyzése a DataSourceV2Relation alkalmazásban
  • SPARK-54014 A SparkConnectStatement maximális sorainak támogatása
  • SPARK-50906 Javítás Avro null ellenőrzésére az átrendezett szerkezet mezőknél
  • SPARK-54396 Py4J-hívások optimalizálása a Dataframe.toArrow-ban
  • SPARK-54344 Zárja le a munkafolyamatot, ha a kiürítés a daemon.py fájlban meghiúsul.
  • SPARK-53977 Támogatás UDTF-ek naplózásához
  • SPARK-52515 Az "[SC-199815][sql] Add approx_top_k function" ismételt alkalmazása
  • SPARK-54340 A viztracer pyspark démonon/feldolgozókon való használatára vonatkozó képesség hozzáadása
  • SPARK-54379 Lambda-kötés áthelyezése külön LambdaBinder objektumba
  • SPARK-54029 Részletes hibaüzenet hozzáadása a tábla metaadatainak sérüléséhez a hibakeresés megkönnyítése érdekében
  • SPARK-54002 A BeeLine és a Connect JDBC illesztő integrálásának támogatása
  • SPARK-54336 Javítsa a bemeneti típus ellenőrzést BloomFilterMightContain a ScalarSubqueryReference
  • SPARK-53406 Kerülje el a szükségtelen shuffle illesztést a közvetlen pass-through shuffle azonosítóban
  • SPARK-54347 Py4J-hívások optimalizálása klasszikus adatkeretben
  • SPARK-54062 MergeScalarSubqueries kód törlése
  • SPARK-54054 Sorpozíció támogatása a SparkConnectResultSet számára
  • SPARK-54330 Py4J-hívások optimalizálása spark.createDataFrame
  • SPARK-54332 Nincs szükség a PlanId hozzáadására a rollup/kocka/groupingSets oszlopnevek csoportosításához
  • SPARK-53976 A naplózás támogatása a Pandas/Arrow UDF-ekben
  • SPARK-54123 Időzónia hozzáadása az időbélyeg abszolút idővé alakításához
  • SPARK-54356 Az EndToEndAPISuite kijavítása, amelyet a hiányzó tárológyökérséma okozott
  • SPARK-54292 Aggregátumfüggvények támogatása GROUP BY |>SELECT csőoperátorokban (#180106) (#180368)
  • SPARK-54376 A legtöbb folyamatkonfigurációs beállítás megjelölése belsőként
  • SPARK-53975 Alapszintű Python-feldolgozónaplózási támogatás hozzáadása
  • SPARK-54361 A Spark-verzió javítása a spark.sql.parser.singleCharacterPipeOperator.enabled 4.2.0-s tervezett értékére
  • SPARK-51518 Támogatás | alternatívaként |> az SQL-cső operátori jogkivonatához
  • SPARK-53535 A hiányzó szerkezetek kijavítása, amelyek mindig null értékként lesznek feltételezve
  • SPARK-54294 A connect-kiszolgáló kinyomtatott IP-címének normalizálása
  • SPARK-52439 Támogatási ellenőrzési kényszer null értékkel
  • SPARK-54352SQLConf.canonicalize a sztringek normalizálásának központosítása érdekében kerül bevezetésre
  • SPARK-54183 Visszaállítás visszaállítása "[SC-211824][python][CONNECT] Kerülje az egyik köztes ideiglenes adatkeretet a Spark Connect toPandas()" során.
  • SPARK-53573IDENTIFIER mindenhol
  • SPARK-53573 Sztringkonstansok egyesítésének engedélyezése mindenhol
  • SPARK-54240 Tömbelem katalizátorkifejezésének fordítása összekötőkifejezésre
  • SPARK-54334 A lambda és magasabb rendű függvények alatti szubquery kifejezések érvényesítésének áthelyezése a következőre: SubqueryExpressionInLambdaOrHigherOrderFunctionValidator
  • SPARK-54183 Visszaállítás "[SC-211824][python][CONNECT] Kerülje az egyik köztes ideiglenes adatkeretet a Spark Connect toPandas()" során.
  • SPARK-54183 Egy köztes ideiglenes adatkeret elkerülése a Spark-csatlakozáskor aPandas() szolgáltatáshoz
  • SPARK-54264 A DeDup operátor használhatja a RocksDB keyExists()
  • SPARK-54269 Frissítés cloudpickle a Python 3.14 3.1.2-re
  • SPARK-54300 Py4J-hívások optimalizálása df.toPandas
  • SPARK-54307 Hibajelzés, ha a streamlekérdezés állapotalapú művelettel újraindul, de üres állapotkönyvtár van
  • SPARK-54117 Jobb hiba esetén jelezheti, hogy a TWS csak a RocksDB állapottároló-szolgáltatója esetén támogatott
  • SPARK-53917 Nagy helyi kapcsolatok támogatása – nyomon követés
  • SPARK-54275 Nem használt kód eltávolítása a modulból pipeline
  • SPARK-54287 Python 3.14-támogatás hozzáadása a pyspark-client és pyspark-connect között
  • SPARK-53614 Támogatás hozzáadása Iterator[pandas.DataFrame] a applyInPandas
  • SPARK-54191 Hozzáadás egyszer a Defineflow Proto-hoz
  • SPARK-54234 A PlanId-et nem kell csatolnia a df.groupBy oszlopneveinek csoportosításához
  • SPARK-54231 Hézagok kitöltése SDP-dokumentumokban
  • SPARK-54199 DataFrame API-támogatás hozzáadása új KLL quantiles vázlatfüggvényekhez (#178526)
  • SPARK-52463 "[SC-211221][sdp] 'cluster_by' támogatásának hozzáadása a Python Pipelines API-kban"
  • SPARK-52463 „[SC-211221][sdp] A 'cluster_by' támogatásának visszavonása a Python Pipelines API-kban”
  • SPARK-53786 A speciális oszlopnévvel rendelkező alapértelmezett érték nem ütközhet valós oszlopokkal
  • SPARK-54200 A KafkaConsumerPoolRealTimeModeSuite frissítése a groupIdPrefix egyidejű futtatásának biztonságához való használatához
  • SPARK-52463 Cluster_by támogatása a Python Pipelines API-kban
  • SPARK-52509 Egyedi keverések eltávolítása a tartalék tárhelyről eseménykor RemoveShuffle
  • SPARK-54187 "[SC-211150][python][CONNECT] Az összes konfiguráció lekérése egy kötegben a toPandasban"
  • SPARK-53942 Állapot nélküli shuffle partíciók módosításának támogatása a streamelési lekérdezés újraindításakor
  • SPARK-52515 A "[SC-199815][sql] Approx_top_k függvény hozzáadása" visszavonása
  • SPARK-52515 Approx_top_k függvény hozzáadása
  • SPARK-54078 Új teszt és az infra eltávolítása a régi tesztből
  • SPARK-54178 A ResolveSQLOnFile hiba javítása
  • SPARK-53455 RPC hozzáadása CloneSession
  • SPARK-54178 "[SC-2111111][sql] Hiba javítása a ResolveSQLOnFile esetében"
  • SPARK-53489 Távolítsa el a v2ColumnsToStructType használatát a ApplyDefaultCollationToStringType fájlban
  • SPARK-54178 A ResolveSQLOnFile hiba javítása
  • SPARK-54187 Eredeti állapot visszaállítása: "[SC-211150][python][CONNECT] Az összes konfiguráció lekérése kötegelt formában a toPandas függvény segítségével"
  • SPARK-53942 Visszavonás "[SC-209873][ss] Állapot nélküli shuffle partíciók módosításának támogatása a streamelési lekérdezés újraindításakor"
  • SPARK-54187 Egy köteg összes konfigurációjának lekérése a toPandasban
  • SPARK-54145 Beágyazott típus oszlopellenőrzésének javítása numerikus összesítésben
  • SPARK-53942 Állapot nélküli shuffle partíciók módosításának támogatása a streamelési lekérdezés újraindításakor
  • SPARK-53991 SQL-támogatás hozzáadása a KLL quantiles függvényekhez DataSketches (#178089) (#178234) alapján
  • SPARK-53128 A nem felügyelt memória bájtok belefoglalása a használati naplóba a végrehajtási memória OOM állapot bekövetkezése előtt.
  • SPARK-53731 Iterator API-k típustippjeinek frissítése
  • SPARK-53967 Kerülje a köztes pandas-adatkeretek létrehozását a következő helyen: df.toPandas
  • SPARK-53455 "[SC-208758][connect] RPC hozzáadása CloneSession " visszavonása
  • SPARK-54108 A SparkConnectStatement végrehajtási* metódusainak felülvizsgálata
  • SPARK-54052 Egy hídobjektum hozzáadása a Py4J korlátozás megkerülésére
  • SPARK-54128 Az IllegalArgumentException átalakítása SparkException-é a megfelelő hibakategóriákkal a Spark Connect kiszolgálón
  • SPARK-53880 A DSv2 javítása a PushVariantIntoScan alkalmazásban a SupportsPushDownVariants hozzáadásával
  • SPARK-54111 A getCatalogs támogatásának biztosítása a SparkConnectDatabaseMetaData számára
  • SPARK-53455 RPC hozzáadása CloneSession
  • SPARK-54118 A ListState üzembe helyezésének/egyesítésének javítása több érték esetén
  • SPARK-54038 A getSQLKeywords támogatása a SparkConnectDatabaseMetaData számára
  • SPARK-54013 SparkConnectDatabaseMetaData egyszerű metódusok implementálása
  • SPARK-53934 A Connect JDBC-illesztő kezdeti implementálása
  • SPARK-53959 Ügyféloldali hiba, amikor egy pandas-adatkeretből létrehoz egy adatkeretet indexel, de nincs adat
  • SPARK-53573 Visszavonás "[SC-210255][sql] Sztringliterálok összevonásának engedélyezése mindenhol"
  • SPARK-54094 Gyakori metódusok kiszervezése a KafkaOffsetReaderBase-be
  • SPARK-53573 Sztringkonstansok egyesítésének engedélyezése mindenhol
  • SPARK-54039 TaskContext-információk hozzáadása a KafkaDataConsumer kiadási() naplóihoz a jobb hibakeresés érdekében
  • SPARK-54031 Új arany fájltesztek hozzáadása az elemzési peremhálózati esetekhez
  • SPARK-54067 A SparkSubmit olyan módosítása, hogy exitFn a fő okkal hívjuk meg, ahelyett, hogy SparkUserAppException
  • SPARK-54047 Különbséghiba használata a tétlenség utáni időtúllépéskor
  • SPARK-54078 Deflake StateStoreSuite SPARK-40492: maintenance before unload
  • SPARK-54061 Csavarja az IllegalArgumentException-t érvénytelen dátum/idő mintákhoz megfelelő hibakóddal.
  • SPARK-54031 [SC-210084][sql] Az "Új arany fájltesztek hozzáadása az elemzési szélhelyzetekhez" visszavonása
  • SPARK-54075 Kiértékelhetővé tétele ResolvedCollation
  • SPARK-54001 Memóriahasználat optimalizálása munkamenet-klónozáskor a gyorsítótárazott helyi kapcsolatok újraszámlálásával
  • SPARK-54031 Új arany fájltesztek hozzáadása az elemzési peremhálózati esetekhez
  • SPARK-53923 Átnevez spark.executor.(log -> logs).redirectConsoleOutputs
  • SPARK-54007 Java használata ahelyett, hogy Set.ofCollections.emptySet
  • SPARK-53755 Naplótámogatás hozzáadása a BlockManagerben
  • SPARK-54041 A ParameterizedQuery argumentumok érvényesítésének refaktorálása.
  • SPARK-53696 A BinaryType alapértelmezése bájtokra a PySparkban
  • SPARK-53921 A GeometryType és a GeographyType bemutatása a PySpark API-ban
  • SPARK-53788 A VersionUtils áthelyezése a modulba common
  • SPARK-53999 Natív KQueue Transport-támogatás BSD/MacOS rendszeren
  • SPARK-54021 Földrajzi és geometriai hozzáférők implementálása a Catalystben
  • SPARK-53921 Visszavon "[SC-209482][geo][PYTHON] GeometryType és GeographyType bemutatása a PySpark API-ban"
  • SPARK-53920 A GeometryType és a GeographyType bemutatása a Java API-ban
  • SPARK-53610 Az applyInPandas és az applyInArrow egyesítési nyíl formátumú kötegek méretének korlátozása
  • SPARK-53659 Variáns feldolgozási séma következtetése Parquet formátumba való íráskor
  • SPARK-53922 Fizikai geometria és földrajzi típusok bemutatása
  • SPARK-54059 Csökkentse az alapértelmezett oldalméretet, ha ZGC vagy ShenandoahGC és ON_HEAP van használatban, a LONG_ARRAY_OFFSET által.
  • SPARK-53921 A GeometryType és a GeographyType bemutatása a PySpark API-ban
  • SPARK-54048 Frissítés dev/requirements.txt a Python 3.14-ben való telepítéshez torch(vision)
  • SPARK-53917 Nagy helyi kapcsolatok támogatása
  • SPARK-53760 A GeometryType és a GeographyType bemutatása
  • SPARK-53530 A TransformWithStateInPySparkStateServer-hoz kapcsolódó felesleges kód eltávolítása
  • SPARK-53636 A SortShuffleManager.unregisterShuffle szálbiztonsági problémájának megoldása
  • SPARK-52762 PipelineAnalysisContext üzenet hozzáadása a folyamatelemzés támogatásához a Spark Connect-lekérdezés végrehajtása során
  • SPARK-53631 Memória és perf optimalizálása SHS-rendszerindításhoz
  • SPARK-53857 MessageTemplate-propagálás engedélyezése a SparkThrowable-be
  • SPARK-53891 Model DSV2 Commit Write Summary API
  • SPARK-53966 Segédprogramfüggvények hozzáadása a JVM-tartományvezérlők észleléséhez
  • SPARK-53149 Annak javítása, hogy a BeeLine-folyamat fut-e a háttérben
  • SPARK-53738 Tervezett írási folyamat javítása, ha a lekérdezés kimenete egyszerűsíthető rendezéseket tartalmaz
  • SPARK-53949 Használd Utils.getRootCause helyett Throwables.getRootCause
  • SPARK-53696 Visszavonás "[SC-209330][python][CONNECT][sql] Alapértelmezett a bájtokra a BinaryType esetén PySparkban"
  • SPARK-53804 A TIME radix rendezés támogatása
  • SPARK-54004 A gyorsítótárból eltávolító tábla javítása név szerint kaszkádolás nélkül
  • SPARK-53261 Guava helyett Java használata String.join|StringJoinerJoiner
  • SPARK-53319 Az időtípus támogatása try_make_timestamp_ltz() szerint
  • SPARK-53280 Java instanceof használata metódusok Throwables.throwIf* helyett
  • SPARK-53696 A BinaryType alapértelmezése bájtokra a PySparkban
  • SPARK-53258 Az 's' használata JavaUtilscheck(Argument|State)
  • SPARK-53773 A szabályok betűrendes sorrendjének helyreállítása a következőben: RuleIdCollection
  • SPARK-53256check(Argument|State) előléptetése JavaUtils szintre
  • SPARK-54008 Kihagyja a QO-t a következőhöz: DESCRIBE QUERY
  • SPARK-53573 Előfeldolgozó használata általános paraméterjelölők kezeléséhez
  • SPARK-53980 API hozzáadása SparkConf.getAllWithPrefix(String, String => K)
  • SPARK-54009 Támogatás spark.io.mode.default
  • SPARK-51903 Adatok ellenőrzése CHECK-kényszer hozzáadásához
  • SPARK-53573 Az "[SC-209126][sql] előfeldolgozó használatának visszavonása általános paraméterjelölő-kezeléshez"
  • SPARK-53573 Előfeldolgozó használata általános paraméterjelölők kezeléséhez
  • SPARK-53573 Az "[SC-209126][sql] előfeldolgozó használatának visszavonása általános paraméterjelölő-kezeléshez"
  • SPARK-53956 Támogatási IDŐ a PySpark try_make_timestamp függvényében
  • SPARK-53930 Az IDŐ adattípus támogatása a make_timestamp függvényben a PySpark-ben
  • SPARK-53573 Előfeldolgozó használata általános paraméterjelölők kezeléséhez
  • SPARK-53564 A DAGScheduler kilépésének elkerülése a BlockManager RPC időtúllépése miatt a DAGSchedulerEventProcessLoopban.
  • SPARK-53879 Frissítés Ammonite a 3.0.3-ra
  • SPARK-53938 Decimális újraszámítás javítása a LocalDataToArrowConversion alkalmazásban
  • SPARK-53845 SDP-elnyelők
  • SPARK-53908 Megfigyelések javítása a Spark Connecten a terv gyorsítótárral
  • SPARK-53841 Implementálás transform() a Column API-ban
  • SPARK-53929 Idő támogatása a make_timestamp és try_make_timestamp Scala függvényekben
  • SPARK-53902 Facsomópont-mintabitek hozzáadása támogatott kifejezésekhez az ParameterizedQuery argumentumlistában
  • SPARK-53064 MDC LogKey átírása Java-ban
  • SPARK-53762 Dátum- és időkonverziók egyszerűsített szabályának hozzáadása az optimalizálóhoz
  • SPARK-53916 A változók deduplikálása a PythonArrowInputban
  • SPARK-53690 Az avgOffsetsBehindLatest és a estimatedTotalBytesBehindLatest exponenciális formázásának javítása a Folyamatban lévő Kafka-források objektumában json
  • SPARK-53789 A hibafeltétel CANNOT_MODIFY_STATIC_CONFIG szabványosítása
  • SPARK-53720 Tábla kinyerése a DataSourceV2Relation szolgáltatásból (#52460)
  • SPARK-45530 Használja java.lang.ref.Cleaner a finalize helyett NioBufferedFileInputStream.
  • SPARK-53789 Visszavonás: "[SC-208902][sql][CONNECT] Kanonizálási hiba feltétel CANNOT_MODIFY_STATIC_CONFIG"
  • SPARK-53789 A hibafeltétel CANNOT_MODIFY_STATIC_CONFIG szabványosítása
  • SPARK-53111 A time_diff függvény implementálása a PySparkban
  • SPARK-53896 Engedélyezés spark.io.compression.lzf.parallel.enabled alapértelmezés szerint
  • SPARK-53856 Alternatív konfigurációnevek eltávolítása
  • SPARK-53611 Az Arrow kötegméretének korlátozása a window agg UDF-kben
  • SPARK-53575 A fogyasztói szakaszok teljes újrapróbálása, ha az ellenőrzőösszeg eltérését észlelik egy újrapróbált shuffle map feladatnál
  • SPARK-53867 Az Arrow csomagméreteinek korlátozása a SQL_GROUPED_AGG_ARROW_UDF-ben
  • SPARK-53877 BITMAP_AND_AGG függvény bemutatása
  • SPARK-51426 'A metaadatok üres szótárra állítása nem működik'
  • SPARK-53868 Tömbhossz-ellenőrzés használata közvetlen referencia-ellenőrzés helyett a V2ExpressionBuilderben
  • SPARK-53609 Az Arrow adatcsomag méretének korlátozása a SQL_GROUPED_AGG_PANDAS_UDF-ben
  • SPARK-53892 Használat DescribeTopicsResult.allTopicNames az elavult all API helyett
  • SPARK-53878 A ObservedMetrics versenyállapotával kapcsolatos probléma javítása
  • SPARK-53796 Mező hozzáadása extension néhány folyamat-protoshoz a továbbítási kompatibilitás támogatásához
  • SPARK-53850 Sink-ek protojának definiálása és a DefineDataset átnevezése DefineOutput-ra
  • SPARK-53812 A DefineDataset és DefineFlow protok összevont újratervezése a kapcsolódó tulajdonságok csoportosítása és jövőbeli rugalmasság érdekében.
  • SPARK-53870 Kijavítottuk a nagyméretű proto-üzenetek részleges olvasási hibáját a TransformWithStateInPySparkStateServerben
  • SPARK-53751 Kifejezetten verziózott ellenőrzőpont helyszín
  • SPARK-52407 A Theta Sketch (#171135) támogatásának hozzáadása
  • SPARK-53779 Implementálás transform() a Column API-ban
  • SPARK-49547 API iterátorának RecordBatch hozzáadása a applyInArrow
  • SPARK-53802 A felhasználó által megadott séma sztringértékeinek támogatása SDP-táblákban
  • SPARK-53865 Gyakori logika kinyerése a ResolveGenerate szabályból
  • SPARK-53113 Az időtípus támogatása try_make_timestamp() szerint
  • SPARK-53868 Csak a V2ExpressionSQBuilder kifejezéssel[] visitAggregateFunction rendelkező aláírás használata
  • SPARK-53792 Kijavítja a rocksdbPinnedBlocksMemoryUsage hibát korlátozott memóriahasználat esetén.
  • SPARK-53248 Támogatás a következőben checkedCast : JavaUtils
  • SPARK-52640 Python-forráskód helyének propagálása
  • SPARK-52924 A ZSTD_strategy támogatása tömörítéshez
  • SPARK-53562 "[SC-207233][python] Az Arrow kötegméreteinek korlátozása az applyInArrow és az applyInPandas alkalmazásban"
  • SPARK-51272 A ResubmitFailedStages helyett a részlegesen befejezett, határozatlan eredményű szakasz megszakítása.
  • SPARK-53795 A Nem használt paraméterek eltávolítása a LiteralValueProtoConverterben
  • SPARK-53808 Az opcionális JVM-argek átadásának engedélyezése spark-connect-scala-client
  • SPARK-52614 A RowEncoder támogatása a Product Encoderben
  • SPARK-53833 Frissítés dev/requirements.txt a kihagyáshoz torch/torchvision a Python 3.14-ben
  • SPARK-53715 Refactor getWritePrivileges a MergeIntoTable-ben
  • SPARK-53516 Az arg-folyamat javítása spark.api.mode a SparkPipelinesben
  • SPARK-53507 Ne használjon esetosztályt a BreakingChangeInfo-hoz
  • SPARK-53645 A ps paraméter implementálása skipna . DataFrame any()
  • SPARK-53717 A paraméter megjegyzésének helyesebb módosítása MapType.valueContainsNull
  • SPARK-53700 Redundancia eltávolítása a következőben: DataSourceV2RelationBase.simpleString
  • SPARK-53667 Javítás a CALL-hez tartozó EXPLAIN részhez a következővel: IDENTIFIER
  • SPARK-53562 Az "[SC-207233][python] Arrow kötegméretek applyInArrow és applyInPandas korlátozásának visszaállítása"
  • SPARK-51169 Python 3.14-támogatás hozzáadása a Klasszikus Sparkban
  • SPARK-53562 Az Apache Arrow batch méretek korlátozása applyInArrow és applyInPandas
  • SPARK-53806 Az AES-visszafejtés üres bemenetének engedélyezése hibaosztály megadásával
  • SPARK-51756 RowBasedChecksum számítása a ShuffleWriters-ben
  • SPARK-52807 Proto-módosítások a Deklaratív folyamatok lekérdezési függvényeken belüli elemzés támogatásához
  • SPARK-53728 PipelineEvent üzenet nyomtatása hiba esetén a teszt során
  • SPARK-53207 Folyamatesemény küldése az ügyfélnek aszinkron módon
  • SPARK-53829datetime.time támogatása az oszlopoperátorokban
  • SPARK-53638 A TWS-hez tartozó nyílköteg bájtméretének korlátozása az OOM elkerülése érdekében
  • SPARK-53593 Javítás: Idézőjelek nélküli használat a válaszmezőkhöz
  • SPARK-53734 Táblázatoszlop előnyben részesítése az LCA-val szemben a tömbindex feloldásakor
  • SPARK-53593 Válaszmező hozzáadása a DefineDatasethez és a DefineFlow RPC-hez
  • SPARK-53734 Visszaállítás "[SC-207697][sql] A táblák oszlopainak előnyben részesítése az LCA-val szemben a tömbindex feloldásakor"
  • SPARK-53621 Támogatás hozzáadása a CONTINUE HANDLER végrehajtásához
  • SPARK-53734 Táblázatoszlop előnyben részesítése az LCA-val szemben a tömbindex feloldásakor
  • SPARK-53507 Kompatibilitástörő változásadatok hozzáadása hibákhoz
  • SPARK-53707 Az attribútum metaadatainak kezelése.
  • SPARK-53629 Típusszűkítés implementálása a WITH MERGE INTO EVOLUTION-hez SCHEMA
  • SPARK-53719 Típusellenőrzés javítása a függvényben _to_col
  • SPARK-53735 Kiszolgálóoldali JVM-verem nyomkövetésének elrejtése alapértelmezés szerint a Spark-Pipelines kimenetében
  • SPARK-53651 Folyamatos nézetek támogatásának hozzáadása a csővezetékekhez
  • SPARK-53678 Az NPE javítása a ColumnVector alosztály null DataType használatával történő létrehozásakor
  • SPARK-46679 Javítás a SparkUnsupportedOperationException esetében Nem található T típusú kódoló paraméteres osztály használatakor
  • SPARK-53444 Átdolgozás azonnali újramunkálás végrehajtása azonnal
  • SPARK-53578 Adattípus-kezelés egyszerűsítése a LiteralValueProtoConverterben
  • SPARK-53438 Használja a CatalystConvertert a LiteralExpressionProtoConverterben
  • SPARK-53444 "[SC-206535][sql][CORE] Az újramunkálás azonnali újramunkálást hajt végre azonnal"
  • SPARK-53444 Átdolgozás azonnali újramunkálás végrehajtása azonnal
  • SPARK-53112 Támogatási IDŐ a PySpark make_timestamp_ntz és try_make_timestamp_ntz függvényeiben
  • SPARK-53492 Utasítsa el a második ExecutePlan-t, ha egy már befejezett műveletazonosítóval rendelkezik
  • SPARK-52772 Goldfájlok előre javítása
  • SPARK-53591 Folyamatspecifikációs minta Glob-egyeztetésének egyszerűsítése
  • SPARK-53553 Null értékek kezelésének javítása a LiteralValueProtoConverterben
  • SPARK-52772 Inkonzisztens táblaattribútumok kezelése a frissítések során
  • SPARK-53544 A megfigyelések összetett típusainak támogatása
  • SPARK-53357 Frissítés pandas a 2.3.2-hez
  • SPARK-53402 A Direct Passthrough Partitioning Dataset API támogatása Spark Connectben Scalához
  • SPARK-53372 SDP– végpontok közötti tesztelési csomag
  • SPARK-53402 Az "[SC-206163][connect] Közvetlen átengedéses particionálási adathalmaz API támogatásának visszavonása a Spark Connectben Scálában"
  • SPARK-53402 A Direct Passthrough Partitioning Dataset API támogatása Spark Connectben Scalához
  • SPARK-53233 A megfelelő csomagnév használatával kapcsolatos streaming kód létrehozása
  • SPARK-53233 Vonja vissza a "[SC-203716][sql][SS][mllib][CONNECT] Kód összetétele a megfelelő csomagnév használatának biztosítása érdekében" változtatást
  • SPARK-53233 A megfelelő csomagnév használatával kapcsolatos streaming kód létrehozása
  • SPARK-53561 Megszakítási kivételt felfogni a TransformWithStateInPySparkStateServerben az outputStream.flush hívásakor a feldolgozó összeomlásának elkerülése érdekében.
  • SPARK-53486 Kerülje el a beállítást a torch modell betöltésekor weights_only=False
  • SPARK-53391 A nem használt PrimitiveKeyOpenHashMap eltávolítása
  • SPARK-52431 Befejező simítások a Deklaratív modulok futtatóján
  • SPARK-52980 Arrow Python UDTF-ek támogatása
  • SPARK-53453 A "fáklya<2.6.0" blokkolásának feloldása
  • SPARK-52582 "[SC-199314][sc-204581][SQL] Az XML-elemző memóriahasználatának javítása"
  • SPARK-52582 Visszavonni "[SC-199314][sc-204581][SQL] Az XML-elemző memóriahasználatának javítását"
  • SPARK-52582 Az XML-elemző memóriahasználatának javítása
  • SPARK-51906 Az alter tábla Dsv2-kifejezései oszlopokat adnak hozzá
  • SPARK-53150 Fejlesztés list(File|Path)s a nem létező, nem címtár alapú, szimlink bemenetek kezeléséhez
  • SPARK-53091 Tilalom org.apache.commons.lang3.Strings
  • SPARK-52844 Numpy frissítése 1.22-re
  • SPARK-52912 Javítás SparkStringUtils a támogatás érdekében is(Not)?(Blank|Empty)
  • SPARK-52877 A Python UDF-nyíl szerializáló teljesítményének javítása
  • SPARK-52877 "[SC-201914][python] A Python UDF nyíl szerializáló teljesítményének javítása"
  • SPARK-52238 Python-ügyfél deklaratív folyamatokhoz
  • SPARK-52877 A Python UDF-nyíl szerializáló teljesítményének javítása
  • SPARK-53287 ANSI migrálási útmutató hozzáadása
  • SPARK-52110 SQL-szintaxis támogatása folyamatokhoz
  • SPARK-52897 Frissítés pandas a 2.3.1-hez
  • SPARK-52451 Visszavon "[SC-202894][connect][SQL] Tegye a WriteOperation mellékhatásmentessé a SparkConnectPlannernél"
  • SPARK-52976 Kijavítottuk, hogy a Python UDF nem fogadja el az összeválogatott sztringet bemeneti paraméterként/visszatérési típusként
  • SPARK-52904 A convertToArrowArraySafely engedélyezése alapértelmezés szerint
  • SPARK-52821 add int-DecimalType> pyspark udf return type coercion
  • SPARK-52971 Inaktív Python-feldolgozói üzenetsor méretének korlátozása
  • SPARK-53013 A nyíloptimalizált Python UDTF javítása, amely nem ad vissza sorokat az oldalirányú illesztéskor
  • SPARK-51834 OSS szinkronizálása: a végpontok közötti táblamegkötés támogatása alter add/drop constraint
  • SPARK-52675 A függő ML-kezelők megszakítása a tesztekben
  • SPARK-52959 UDT támogatása a Nyíloptimalizált Python UDTF-ben
  • SPARK-52961 Nyíloptimalizált Python UDTF javítása 0-arg eval oldalirányú illesztéssel
  • SPARK-52949 A RecordBatch és a Table közötti fordulóutazás elkerülése Arrow-optimalizált Python UDTF-ben
  • SPARK-52946 A nyíloptimalizált Python UDTF javítása a nagy vartípusok támogatásához
  • SPARK-52934 Skaláris értékek lehetővé tétele az Arrow-optimalizált Python UDTF használatával
  • SPARK-52861 Sorobjektum létrehozásának kihagyása a nyíloptimalizált UDTF-végrehajtásban
  • SPARK-51834 Az OSS-támogatás szinkronizálása a végpontok közötti létrehozási/cseretáblázatok korlátozásával
  • SPARK-44856 A Python UDTF nyílszerializáló teljesítményének javítása
  • SPARK-51834 "[SQL] A TableSpec javítása konstruktor hozzáadásával"
  • SPARK-51834 A TableSpec javítása konstruktor hozzáadásával
  • SPARK-51834 "[SQL] OsS szinkronizálása (részleges): Teljes körű táblamegkötés támogatása a tábla létrehozása/cseréje során"
  • SPARK-51834 OSS szinkronizálása (részleges): A teljes körű táblamegkötés támogatása a tábla létrehozása/cseréje során
  • SPARK-52885 Az óra, a perc és a második függvény implementálása a Scalában az IDŐ típushoz
  • SPARK-51834 OsS-frissítés szinkronizálása – A ResolvedIdentifier alkalmazás nélküli hívásai
  • SPARK-44856 "[SC-195808][python] A Python UDTF nyílszerializáló teljesítményének javítása"
  • SPARK-51834 Az "[SQL] Sync OSS update ResolvedIdentifier unapply calls" frissítésének visszavonása
  • SPARK-44856 A Python UDTF nyílszerializáló teljesítményének javítása
  • SPARK-51834 OsS-frissítés szinkronizálása – A ResolvedIdentifier alkalmazás nélküli hívásai
  • SPARK-52787 Streamelési végrehajtási dir átrendezése a futtatókörnyezet és az ellenőrzőpont területei körül
  • SPARK-51695 OsS create/replace/alter table szinkronizálása egyedi kényszerhez a DSv2-n keresztül
  • SPARK-51695 OSS-es esési kényszer szinkronizálása a DSv2-n keresztül
  • SPARK-51695 Elemzési módosítások bevezetése a táblakorlátozásokhoz (CHECK, PK, FK)
  • SPARK-51695 "Visszavonás: [SQL] A táblamegkötések elemző módosításainak bevezetése (CHECK, PK, FK)"
  • SPARK-51695 Elemzési módosítások bevezetése a táblakorlátozásokhoz (CHECK, PK, FK)
  • SPARK-49428 Scala Connect kliens áthelyezése a Connectorból az SQL-be
  • SPARK-52422 Frissítés pandas a 2.3.0-ra
  • SPARK-52228 Az állapotállapot-interakció mikró-benchmark integrálása a Quicksilver rendszerébe (TCP)
  • SPARK-52300 Az SQL UDTVF felbontásának konzisztens konfigurációk használata nézetfeloldással
  • SPARK-52228 A teljesítménymutató célú TWS állapotkiszolgáló szerver létrehozása memóriában tárolt állapotimplementációkkal és a benchmark kód pythonban
  • SPARK-52174 Engedélyezés spark.checkpoint.compress alapértelmezés szerint
  • SPARK-52224 Pyyaml bevezetése függőségként a Python-ügyfélhez
  • SPARK-52122 DefaultParamsReader RCE biztonsági rés javítása
  • SPARK-51147 A streameléssel kapcsolatos osztályok újrabontása dedikált streamkönyvtárba
  • SPARK-51789 A spark.api.mode és a spark.remote megfelelő tiszteletben tartása az argumentumok Spark-beküldésben történő elemzésekor
  • SPARK-51212 Külön PySpark-csomag hozzáadása a Spark Connecthez alapértelmezés szerint
  • SPARK-50762 Elemzési szabály hozzáadása az SQL skaláris UDF-ek feloldásához
  • SPARK-49748getCondition hozzáadása és getErrorClass elavulttá tétele a következőben: SparkThrowable
  • SPARK-50605 Sql API mód támogatása a Spark Connectre való könnyebb migráláshoz
  • SPARK-50458 A nem támogatott fájlrendszer megfelelő hibakezelése fájlok olvasásakor
  • SPARK-49700 Egységes Scala-interfész a Connecthez és a Classichoz
  • SPARK-51779 Virtuális oszlopcsaládok használata stream-stream illesztésekhez
  • SPARK-51820 Az építés áthelyezése UnresolvedOrdinal elemzés előtt a rendezési sorrend szerinti csoportosítással kapcsolatos problémák elkerülése érdekében.
  • SPARK-51814 Új API transformWithState bevezetése a PySparkban
  • SPARK-51635 PushProjectionThroughLimit és PushProjectionThroughOffset egyesítése
  • SPARK-51165 Engedélyezés spark.master.rest.enabled alapértelmezés szerint
  • SPARK-51688 Unix Domain Socket használata Python és JVM-kommunikáció között
  • SPARK-51503 Variant típus támogatása az XML-vizsgálatban
  • SPARK-50564 Python-csomag frissítése protobuf 5.29.1-re
  • SPARK-50359 A PyArrow frissítése 18.0-ra
  • SPARK-51340 Modellméret becslése
  • SPARK-50657 Frissítse a minimális verziót pyarrow a 11.0.0-ra
  • SPARK-49282 Hozzon létre egy megosztott SparkSessionBuilder felületet.
  • SPARK-51371 Változtassa meg az Aliases építésekor a toString-ról toPrettySQL-re a ResolveAggregateFunctionsben.
  • SPARK-50694 Támogatás átnevezésre alkérdezésekben
  • SPARK-50601 "[SC-186342][sql] Támogatás visszavonása a withColumns / withColumnsRenamed funkciókra a lekérdezésekben"
  • SPARK-50601 Támogatás a withColumns / withColumnsRenamed használatára az al-lekérdezésekben

Az Azure Databricks ODBC/JDBC-illesztőprogram támogatása

A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).

Karbantartási frissítések

Lásd a Databricks Runtime karbantartási frissítéseit.

Rendszerkörnyezet

  • Operációs rendszer: Ubuntu 24.04.3 LTS
  • Java: Zulu21.42+19-CA
  • Scala: 2.13.16
  • Python: 3.12.3
  • R: 4.5.1
  • Delta Lake: 4.0.0

Telepített Python-kódtárak

Könyvtár verzió Könyvtár verzió Könyvtár verzió
annotált dokumentum 0.0.3 széljegyzetes típusok 0.7.0 anyio 4.7.0
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 arro3-core 0.6.5
nyíl 1.3.0 asttokens 3.0.0 astunparse 1.6.3
Aszinkron-LRU 2.0.4 attribútumok 24.3.0 automatikus parancs 2.2.2
azure-common 1.1.28 azure-core 1.37.0 azure-identity 1.20.0
azure-mgmt-core 1.6.0 azure-mgmt-web (web kezelési modul az Azure-hoz) 8.0.0 Azure-tároló-blob 12.28.0
Azure-tároló-fájl-adattó (Azure Storage File Data Lake) 12.22.0 babel 2.16.0 backports.tarfile 1.2.0
beautifulsoup4 4.12.3 fekete 24.10.0 fehérítő 6.2.0
villogó 1.7.0 boto3 1.40.45 botocore 1.40.45
Gyorstár-eszközök 5.5.1 tanúsítvány 2025.4.26 cffi 1.17.1
Chardet 4.0.0 karakterkészlet-normalizáló (charset-normalizer) 3.3.2 kattintás 8.1.8
Cloudpickle 3.0.0 kommunikáció 0.2.1 ContourPy 1.3.1
kriptográfia 44.0.1 biciklista 0.11.0 Cython 3.1.5
databricks-ügynökök 1.4.0 databricks-connect 17.3.1 databricks SDK 0.67.0
adat osztályok JSON-hoz 0.6.7 dbus-python 1.3.2 debugpy hibakereső eszköz 1.8.11
dekorátor 5.1.1 defusedxml 0.7.1 deltalake 1.1.4
Deprecated 1.2.18 distlib 0.3.9 docstring Markdown-formátummá alakítása 0.11
Végrehajtó 1.2.0 aspektusok áttekintése 1.1.1 fastapi 0.128.0
fastjsonschema 2.21.1 fájlzárolás 3.17.0 betűtípusok 4.55.3
FQDN 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.28.1 Google-autentikáció 2.47.0
google-cloud-core (Google felhő mag) 2.5.0 Google felhőtárhely 3.7.0 google-crc32c 1.8.0
google-resumable-media (Google újraindítható média) 2.8.0 googleapis-közös-protokollok 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.16.0 httpcore 1.0.9
httplib2 0.20.4 httpx 0.28.1 Idna 3.7
importlib-metadata 6.6.0 ragoz 7.3.1 iniconfig 1.1.1
ipyflow-core 0.0.209 ipykernel 6.29.5 ipython 8.30.0
ipython-genutils 0.2.0 ipywidgets 7.8.1 izodátum 0.7.2
izoduráció 20.11.0 jaraco.collections 5.1.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 jedi 0.19.2
Jinja2 3.1.6 rezgés 0.11.1 jmespath 1.0.1
joblib 1.4.2 json5 0.9.25 jsonpatch 1.33
jsonpointer 3.0.0 jsonschema 4.23.0 jsonschema-specifikációk 2023.07.01.
jupyter-események 0.12.0 jupyter-lsp 2.2.5 jupyter_kliens 8.6.3
jupyter_core 5.7.2 jupyter_server (Jupyter kiszolgáló) 2.15.0 jupyter szerver terminálok 0.5.3
jupyterlab 4.3.4 jupyterlab_pygments 0.3.0 jupyterlab_szerver 2.27.3
jupyterlab_widgets 1.1.11 kiwisolver 1.4.8 langchain-core 1.0.3
langchain-openai 1.0.2 langsmith 0.4.41 launchpadlib 1.11.0
lazr.restfulclient 0.14.6 lazr.uri 1.0.6 markdown-it-py 2.2.0
MarkupSafe 3.0.2 mályvacukor 3.26.1 matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
félhangol 3.1.2 mlflow-skinny 3.8.1 mmh3 5.2.0
more-itertools 10.3.0 msal 1.34.0 msal-kiterjesztések 1.3.1
mypy kiterjesztések 1.0.0 nbclient 0.10.2 nbconvert 7.16.6
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.10.0
jegyzetfüzet 7.3.2 notebook-shim 0.2.4 numpy 2.1.3
oauthlib 3.2.2 openai 2.7.1 opentelemetry-api 1.39.1
opentelemetry-proto 1.39.1 opentelemetry-sdk 1.38.0 opentelemetry-szemantikai-konvenciók 0.60b1
orjson 3.11.4 Felülbírálja 7.4.0 csomagolás 24,2
Pandák 2.2.3 pandocfilters 1.5.0 parso 0.8.4
útvonal specifikáció (pathspec) 0.10.3 bűnbak 1.0.1 pexpect 4.8.0
párna 11.1.0 pipa 25.0.1 Platformdirs 4.3.7
ábrázolás 5.24.1 csatlakozós 1.5.0 prometheus_client 0.21.1
prompt-toolkit: parancssori eszközkészlet 3.0.43 proto-plus 1.27.0 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.11 ptyprocess 0.7.0
pure-eval 0.2.2 py4j 0.10.9.9 pyarrow 21.0.0
pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.71
pycparser (C és C++ fájlok feldolgozására szolgáló parser) 2.21 pydantic (egy Python könyvtár) 2.10.6 pydantic_core 2.27.2
pyflakes (egy program vagy eszköz neve) 3.2.0 Pygments 2.19.1 PyGObject 3.48.2
pyiceberg 0.10.0 PyJWT 2.10.1 pyodbc (Python ODBC interfész) 5.2.0
pyparsing (egy Python könyvtár a szövegelemzéshez) 3.2.0 pyright 1.1.394 piroaring 1.0.3
pytest 8.3.5 python-dateutil Szoftver verzió: 2.9.0.post0 python-dotenv 1.2.1
Python JSON naplózó 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-server 1.12.2
pytool konfiguráció 1.2.6 pytz (egy Python könyvtár az időzóna számításokhoz) 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 Hivatkozás 0.30.2 reguláris kifejezés 2024.11.6
requests 2.32.3 requests-eszközkészlet 1.0.0 rfc3339-validator 0.1.4
RFC3986-érvényesítő 0.1.1 gazdag 13.9.4 kötél 1.13.0
rpds-py 0.22.3 Rsa 4.9.1 s3transfer 0.14.0
scikit-learn (egy Python gépi tanulási könyvtár) 1.6.1 scipy (tudományos és műszaki számítási Python könyvtár) 1.15.3 tengerben született 0.13.2
Send2Trash 1.8.2 setuptools 78.1.1 hat 1.17.0
smmap 5.0.0 sniffio 1.3.0 sortedcontainers 2.4.0
levesszűrő 2.5 sqlparse 0.5.5 ssh-import-id 5.11
halmaz adatok 0.6.3 Starlette 0.50.0 strictyaml 1.7.3
Kitartás 9.0.0 befejezett 0.17.1 threadpoolctl 3.5.0
tiktoken 0.12.0 tinycss2 1.4.0 tokenize_rt 6.1.0
tomli 2.0.1 tornado 6.5.1 tqdm 4.67.1
traitlets 5.14.3 típusőrző 4.3.0 types-python-dateutil 2.9.0.20251115
gépelés ellenőrzése 0.9.0 typing_extensions (gépelési kiterjesztések) 4.12.2 tzdata 2024.1
ujson (JSON-kezelő könyvtár a Pythonban) 5.10.0 felügyelet nélküli frissítések 0,1 uri-sablon 1.3.0
urllib3 2.3.0 uvicorn 0.38.0 virtualenv 20.29.3
wadllib 1.3.6 wcwidth 0.2.5 webszínek 25.10.0
webkódolások 0.5.1 websocket-klient 1.8.0 Mi a javítás? 1.0.2
wheel 0.45.1 akármikor 0.7.3 widgetsnbextension 3.6.6
becsomagolva 1.17.0 yapf 0.40.2 cipzár 3.21.0
zstandard 0.23.0

Telepített R-kódtárak

Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2025-11-20-án.

Könyvtár verzió Könyvtár verzió Könyvtár verzió
nyíl 22.0.0 jelszókérés 1.2.1 Meggyőződj arról, hogy 0.2.1
háttérportolások 1.5.0 alapkép 4.5.1 base64enc 0.1-3
bigD 0.3.1 bit 4.6.0 bit 64 4.6.0-1
bitops 1.0-9 blob 1.2.4 boot - rendszerindítás 1.3-30
sört főz 1.0-10 Brio 1.1.5 seprű 1.0.10
bslib 0.9.0 gyorsítótár 1.1.0 hívásindító 3.7.6
caret 7.0-1 cellranger 1.1.0 kronométer 2.3-62
osztály 7.3-22 CLI 3.6.5 Clipr 0.8.0
óra 0.7.3 fürt 2.1.6 kódolási eszközök 0.2-20
commonmark 2.0.0 fordítóprogram 4.5.1 config 0.3.2
ellentmondásos 1.2.0 cpp11 0.5.2 crayon 1.5.3
azonosító adatok 2.0.3 göndörít 7.0.0 adat.táblázat 1.17.8
adatkészletek 4.5.1 DBI 1.2.3 dbplyr 2.5.1
Leírás 1.4.3 devtools 2.4.6 diagram 1.6.5
diffobj 0.3.6 kivonat 0.6.39 lefelé irányított világítású 0.4.5
dplyr (adatmanipulációs csomag az R programozási nyelvhez) 1.1.4 dtplyr 1.3.2 e1071 1.7-16
három pont 0.3.2 kiértékel 1.0.5 rajongók 1.0.7
színek 2.1.2 gyorstérkép 1.2.0 fontawesome 0.5.3
elveszettek 1.0.1 foreach 1.5.2 külföldi 0.8-86
fs 1.6.6 jövő 1.68.0 jövő.alkalmaz 1.20.0
gargarizál 1.6.0 általánosítás 0.1.4 gert 2.2.0
ggplot2 4.0.1 gh 1.5.0 git2r 0.36.2
gitcreds 0.1.2 glmnet 4.1-10 globálisok 0.18.0
ragasztó 1.8.0 googledrive 2.1.2 googlesheets4 1.1.2
Gower-hegység 1.0.2 grafika 4.5.1 grDevices 4.5.1
rács 4.5.1 gridExtra 2.3 gsubfn 0.7
gt 1.1.0 gtable 0.3.6 védősisak 1.4.2
kikötő 2.5.5 magasabb 0.11 HMS 1.1.4
HTML-eszközök 0.5.8.1 HTML-widgetek 1.6.4 httpuv 1.6.16
httr 1.4.7 httr2 1.2.1 Azonosítók 1.0.1
ini 0.3.1 iPred 0.9-15 izoband 0.2.7
iterátorok 1.0.14 jquerylib 0.1.4 jsonlite 2.0.0
juicyjuice 0.1.0 KernSmooth 2.23-22 knitr 1,50
címkézés 0.4.3 később 1.4.4 rácsszerkezet 0.22-5
láva 1.8.2 életciklus 1.0.4 hallgatás 0.10.0
litedown 0.8 lubridate 1.9.4 magrittr 2.0.4
Markdown 2.0 Tömeg 7.3-60.0.1 Mátrix 1.6-5
memorizálás 2.0.1 módszerek 4.5.1 mgcv 1.9-1
pantomimázás 0,13 miniUI 0.1.2 mlflow 3.6.0
ModelMetrics 1.2.2.2 modellező 0.1.11 nlme 3.1-164
nnet 7.3-19 „numDeriv” 2016. augusztus - 1.1 openssl (nyílt forráskódú titkosító szoftver) 2.3.4
otel 0.2.0 párhuzamos 4.5.1 párhuzamosan 1.45.1
pillér 1.11.1 pkgbuild 1.4.8 pkgconfig 2.0.3
pkgdown 2.2.0 csomag betöltése 1.4.1 plogr 0.2.0
plyr 1.8.9 dicséret 1.0.0 prettyunits 1.2.0
pROC 1.19.0.1 Processx 3.8.6 prodlim 2025.04.28
profvis 0.4.0 haladás 1.2.3 progressr 0.18.0
ígéretek 1.5.0 Próto 1.0.0 közvetít 0.4-27
P.S. 1.9.1 purrr 1.2.0 R6 2.6.1
ragg 1.5.0 véletlen erdő (randomForest) 4.7-1.2 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer (egy szoftvercsomag neve) 1.1-3 Rcpp 1.1.0
RcppEigen 0.3.4.0.2 reakcióképes 0.4.4 reactR 0.6.1
Readr 2.1.6 readxl (Excel fájlokat olvasó programcsomag) 1.4.5 Receptek 1.3.1
Visszavágó 2.0.0 visszavágó2 2.1.2 Távvezérlők 2.5.0
megismételhető példa 2.1.1 újraformázás2 1.4.5 rlang 1.1.6
rmarkdown 2.30 RODBC 1.3-26 roxygen2 7.3.3
rpart 4.1.23 rprojroot 2.1.1 Rserve 1.8-15
RSQLite 2.4.4 rstudioapi 0.17.1 változatok 3.0.0
Szüret 1.0.5 S7 0.2.1 Sass 0.4.10
mérlegek 1.4.0 szelekciós eszköz 0.4-2 munkamenet-információk 1.2.3
alakzat 1.4.6.1 Fényes 1.11.1 sourcetools 0.1.7-1
sparklyr 1.9.3 SparkR 4.1.0 sparsevctrs 0.3.4
térbeli 7.3-17 splinek 4.5.1 sqldf 0.4-11
SQUAREM 2021.1 statisztika 4.5.1 statisztikák4 4.5.1
string 1.8.7 stringr 1.6.0 túlélés 3.5-8
magabiztosság 5.17.14.1 sys 3.4.3 systemfonts 1.3.1
Tcl/Tk programozási nyelv és eszközkészlet. 4.5.1 testthat 3.3.0 szövegformázás 1.0.4
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 időváltás 0.3.0 idődátum 4051.111
tinytex 0.58 eszközök 4.5.1 tzdb 0.5.0
URL-ellenőrző 1.0.1 ezt használd 3.2.1 utf8 1.2.6
segédprogramok 4.5.1 univerzálisan egyedi azonosító (UUID) 1.2-1 V8 8.0.1
vctrs 0.6.5 viridisLite 0.4.2 bruum 1.6.6
Waldo 0.6.2 szőrszál 0.4.1 valamivel 3.0.2
xfun 0.54 xml2 1.5.0 xopen 1.0.1
xtable 1.8-4 YAML (adat-szerializációs formátum) 2.3.10 zeallot 0.2.0
zip fájl 2.3.3

Telepített Java- és Scala-kódtárak (Scala 2.13 klaszterverzió)

Csoportazonosító A tárgy azonosítója verzió
ANTLR (Egy másik eszköz a nyelvi felismeréshez) ANTLR (Egy másik eszköz a nyelvi felismeréshez) 2.7.7
com.amazonaws Amazon Kinesis kliens 1.15.3
com.amazonaws AWS Java SDK - Automatikus Skálázás 1.12.681
com.amazonaws aws-java-sdk-cloudformation 1.12.681
com.amazonaws aws-java-sdk-cloudfront 1.12.681
com.amazonaws aws-java-sdk-cloudhsm 1.12.681
com.amazonaws aws-java-sdk-cloudsearch 1.12.681
com.amazonaws aws-java-sdk-cloudtrail 1.12.681
com.amazonaws aws-java-sdk-cloudwatch 1.12.681
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.681
com.amazonaws aws-java-sdk-codedeploy 1.12.681
com.amazonaws aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) 1.12.681
com.amazonaws aws-java-sdk-cognitosync 1.12.681
com.amazonaws aws-java-sdk-config (AWS Java SDK konfiguráció) 1.12.681
com.amazonaws aws-java-sdk-core 1.12.681
com.amazonaws aws-java-sdk-datapipeline 1.12.681
com.amazonaws aws-java-sdk-directconnect 1.12.681
com.amazonaws aws-java-sdk-directory 1.12.681
com.amazonaws aws-java-sdk-dynamodb 1.12.681
com.amazonaws aws-java-sdk-ec2 1.12.681
com.amazonaws aws-java-sdk-ecs 1.12.681
com.amazonaws aws-java-sdk-efs 1.12.681
com.amazonaws aws-java-sdk-elasticache 1.12.681
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) 1.12.681
com.amazonaws aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) 1.12.681
com.amazonaws aws-java-sdk-elastictranscoder 1.12.681
com.amazonaws aws-java-sdk-emr 1.12.681
com.amazonaws aws-java-sdk-glacier 1.12.681
com.amazonaws aws-java-sdk-glue 1.12.681
com.amazonaws aws-java-sdk-iam 1.12.681
com.amazonaws AWS Java SDK importexport modul 1.12.681
com.amazonaws aws-java-sdk-kinesis 1.12.681
com.amazonaws aws-java-sdk-kms (Amazon Web Services Java SDK KMS) 1.12.681
com.amazonaws aws-java-sdk-lambda 1.12.681
com.amazonaws aws-java-sdk-logs 1.12.681
com.amazonaws aws-java-sdk-gépi tanulás 1.12.681
com.amazonaws aws-java-sdk-opsworks 1.12.681
com.amazonaws aws-java-sdk-rds 1.12.681
com.amazonaws aws-java-sdk-redshift 1.12.681
com.amazonaws aws-java-sdk-route53 1.12.681
com.amazonaws aws-java-sdk-s3 1.12.681
com.amazonaws aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) 1.12.681
com.amazonaws aws-java-sdk-simpledb 1.12.681
com.amazonaws aws-java-sdk-simpleworkflow 1.12.681
com.amazonaws aws-java-sdk-sns 1.12.681
com.amazonaws aws-java-sdk-sqs 1.12.681
com.amazonaws aws-java-sdk-ssm 1.12.681
com.amazonaws aws-java-sdk-storagegateway 1.12.681
com.amazonaws aws-java-sdk-sts 1.12.681
com.amazonaws AWS Java SDK Támogatás 1.12.681
com.amazonaws aws-java-sdk-munkaterületek 1.12.681
com.amazonaws jmespath-java 1.12.681
com.clearspring.analytics adatfolyam 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java (Databricks Java SDK) 0.53.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-árnyékolt 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml osztálytárs 1.5.1
com.fasterxml.jackson.core jackson-annotációk 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor (adatformátum CBOR) 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype Jackson adattípus - Joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.3
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.koffein koffein 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib Java natív hivatkozás 1.1
com.github.fommil.netlib Java natív hivatkozás 1.1-őslakosok
com.github.fommil.netlib natív rendszer-java 1.1
com.github.fommil.netlib natív rendszer-java 1.1-őslakosok
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-őslakosok
com.github.fommil.netlib netlib-natív_rendszer-linux-x86_64 1.1-őslakosok
com.github.luben zstd-jni 1.5.7-6
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.auth google-hitelesítési-könyvtár-azonosítók (google-auth-library-credentials) 1.20.0
com.google.auth google-auth-library-oauth2-http 1.20.0
com.google.auto.value automatikus érték-annotációk 1.10.4
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone hibára hajlamos annotációk 2.36.0
com.google.flatbuffers flatbuffers-java 25.2.10
com.google.guava hozzáférési hiba 1.0.3
com.google.guava guáva 33.4.8-jre
com.google.http-client google-http-client 1.43.3
com.google.http-client google-http-client-gson 1.43.3
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profilkészítő 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi forráskód_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.10
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre11
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (kompressziós algoritmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl (JAXB implementáció) 2.2.11
com.tdunning JSON formátum 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lencsék_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-elemzők 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.10.0
„commons-codec” „commons-codec” 1.19.0
commons-collections (közös gyűjtemények könyvtár) commons-collections (közös gyűjtemények könyvtár) 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-fájlfeltöltés Commons-fájlfeltöltés 1.6.0
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.21.0
commons-lang commons-lang 2.6
közös naplózás közös naplózás 1.1.3
közös medence közös medence 1.5.4
dev.ludovic.netlib arpack 3.0.4
dev.ludovic.netlib Blas 3.0.4
dev.ludovic.netlib LAPACK 3.0.4
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift légkompresszor 2.0.2
io.delta delta-sharing-client_2.13 1.3.6
io.dropwizard.metrics metrikák annotációja 4.2.37
io.dropwizard.metrics metrikai magrész 4.2.37
io.dropwizard.metrics metrics-graphite 4.2.37
io.dropwizard.metrics mutatók-egészségügyi ellenőrzések 4.2.37
io.dropwizard.metrics metrics-jetty10 4.2.37
io.dropwizard.metrics Metrics-JMX 4.2.37
io.dropwizard.metrics metrics-json (metrikák JSON formátumban) 4.2.37
io.dropwizard.metrics JVM-metrikák 4.2.37
io.dropwizard.metrics Metrikai szervletek 4.2.37
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all csomag 4.2.7.Final
io.netty Netty-buffer 4.2.7.Final
io.netty netty-codec 4.2.7.Final
io.netty netty-codec-base 4.2.7.Final
io.netty netty-codec-classes-quic 4.2.7.Final
io.netty netty-codec-compression 4.2.7.Final
io.netty Netty HTTP kodek 4.2.7.Final
io.netty netty-codec-http2 4.2.7.Final
io.netty netty-codec-http3 4.2.7.Final
io.netty netty-codec-marshalling 4.2.7.Final
io.netty netty-codec-native-quic 4.2.7.Final-linux-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-linux-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-windows-x86_64
io.netty netty-codec-protobuf 4.2.7.Final
io.netty netty-codec-zokni 4.2.7.Final
io.netty netty-közös 4.2.7.Final
io.netty netty-handler 4.2.7.Final
io.netty netty-handler-proxy 4.2.7.Final
io.netty netty-resolver 4.2.7.Final
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-windows-x86_64
io.netty netty-tcnative-osztályok 2.0.74.Final
io.netty Netty-transport 4.2.7.Final
io.netty netty-szállítási-osztályok-epoll 4.2.7.Final
io.netty netty-transport-classes-io_uring 4.2.7.Final
io.netty Netty szállítási osztályok - kqueue 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-x86_64
io.netty netty-transport-native-unix-common (Unix-alapú közös natív szállítás) 4.2.7.Final
io.opencensus opencensus-api 0.31.1
io.opencensus opencensus-contrib-http-util 0.31.1
io.prometheus simpleclient 0.16.1-databricks
io.prometheus egyszerűkliens_általános 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway (egyszerű kliens tolókapu) 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus egyszerűgaming_kliens_szervlet_általános 0.16.1-databricks
io.prometheus egyszerű kliens nyomkövető közös 0.16.1-databricks
io.prometheus egyszerűkliens_nyomkövető_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx gyűjtő 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktiválás 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
Javolution Javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.14.0
net.java.dev.jna jna 5.8.0
net.razorvine savanyított zöldség 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv (egy CSV-fájlokat kezelő könyvtár) 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-szoftverfejlesztőkészlet (SDK) 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea TávoliTea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr karakterláncsablon 3.2.1
org.apache.ant hangya 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow nyíl-sűrítés 18.3.0
org.apache.arrow nyíl alakú formátum 18.3.0
org.apache.arrow nyíl memóriaegység 18.3.0
org.apache.arrow Arrow-Memória-Netty 18.3.0
org.apache.arrow arrow-memory-netty-buffer-korrekció 18.3.0
org.apache.arrow irányvektor 18.3.0
org.apache.avro Avro 1.12.1
org.apache.avro avro-ipc 1.12.1
org.apache.avro avro-mapred 1.12.1
org.apache.commons commons-kollekciók4 4.5.0
org.apache.commons commons-compress 1.28.0
org.apache.commons commons-configuration2 2.11.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.19.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text (közös szöveg) 1.14.0
org.apache.curator kurátor-ügyfél 5.9.0
org.apache.curator kurátor-keretrendszer 5.9.0
org.apache.curator receptek kurátortól 5.9.0
org.apache.datasketches datasketches-java 6.2.0
org.apache.datasketches adatvázlatok-memória 3.0.2
org.apache.derby derbi 10.14.2.0
org.apache.hadoop hadoop kliens futásideje 3.4.2
org.apache.hive hive-beeline (eszköz) 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-kliens 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde (sorozatok és deserializáció) 2.3.10
org.apache.hive hive-shims (hive kiegészítő modulok) 2.3.10
org.apache.hive hive-storage-api (hive tárolási API) 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler (méhkas-behúzási-ütemező) 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy borostyánkő 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-elrendezés-sablon-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.2.0-shaded-protobuf
org.apache.orc orc-formátum 1.1.1-shaded-protobuf
org.apache.orc orc-mapreduce 2.2.0-shaded-protobuf
org.apache.orc orc-illesztékek 2.2.0
org.apache.poi Poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0,9,3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.28
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus célközönség megjegyzései 0.13.0
org.apache.zookeeper állatkerti gondozó 3.9.4
org.apache.zookeeper zookeeper-jute 3.9.4
org.checkerframework ellenőr-képzettség 3.43.0
org.codehaus.janino közösségi fordítóprogram 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-alpn-client 10.0.26
org.eclipse.jetty jetty-client 10.0.26
org.eclipse.jetty jetty-http (egy Java HTTP szerver implementáció) 10.0.26
org.eclipse.jetty jetty-io 10.0.26
org.eclipse.jetty jetty-jndi 10.0.26
org.eclipse.jetty Jetty Plus 10.0.26
org.eclipse.jetty jetty proxy 10.0.26
org.eclipse.jetty jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) 10.0.26
org.eclipse.jetty Jetty webszerver 10.0.26
org.eclipse.jetty jetty-servlet 10.0.26
org.eclipse.jetty jetty-servlets 10.0.26
org.eclipse.jetty jetty-util 10.0.26
org.eclipse.jetty Jetty webalkalmazás 10.0.26
org.eclipse.jetty jetty-xml 10.0.26
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-lokátor 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi erőforrás-kereső 1.0.3
org.glassfish.hk2.external aopalliance-újracsomagolt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (Jersey konténer szervlet) 2.41.
org.glassfish.jersey.containers jersey-container-servlet-core 2.41.
org.glassfish.jersey.core jersey-ügyfél 2.41.
org.glassfish.jersey.core jersey-közös 2.41.
org.glassfish.jersey.core jersey-szerver 2.41.
org.glassfish.jersey.inject jersey-hk2 2.41.
org.hibernate.validator hibernate-validator (a Hibernate hitelesítő) 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (naplózó rendszer) 3.4.1.Végleges
org.jdbi jdbi 2.63.1
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.locationtech.jts jts-core 1.20.0
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.22.1
org.objenesis objenesis 3.4
org.postgresql PostgreSQL 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.4.0
org.scala-sbt teszt-interfész 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest scalatest tesztelési keretrendszerrel kompatibilis 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl (nyílt forráskódú szoftver) 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Jótanács

Ha szeretné látni azoknak a Databricks Runtime-verzióknak a kiadási megjegyzéseit, amelyek elérték a támogatás megszűnését (EoS), tekintse meg a Támogatás megszűnéséhez kapcsolódó Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.