Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.0 által működtetett Databricks Runtime 16.0-ról nyújtanak információkat.
A Databricks 2024 novemberében adta ki ezt a verziót.
Megjegyzés:
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. A támogatott Databricks Runtime-verziók teljes listáját lásd a Databricks Runtime kiadási megjegyzések: változatok és kompatibilitás oldalon.
Viselkedési változások
- Kompatibilitástörő változás: A JDK 17 mostantól az alapértelmezett
- Breaking change: A hosztolt RStudio elérte az életciklusa végét
-
Kompatibilitástörő változás: A
byte,short,intéslongtípusok szélesebb típusokra történő módosításának támogatásának eltávolítása - Regex-minták helyes elemzése a nem és a beágyazott karaktercsoportosítás használatával
-
Duplikált egyezés felismerés javítása a Delta Lake-ben
MERGE - A fürttár telepítési módszere már nem bírálható felül
- Két óra alapértelmezett időtúllépése fürt hatókörű kódtár telepítésekor
-
A kódtárak telepítése a DBFS-ből és a spark conf
spark.databricks.driver.dbfsLibraryInstallationAllowedbeállítása le van tiltva -
A
addArtifact()funkció mostantól konzisztens a számítási típusok között - Speciális karaktereket tartalmazó főbb azonosítók esetében megfelelően kikényszerített backticks szabály
Kompatibilitástörő változás: A JDK 17 mostantól az alapértelmezett
A Databricks Runtime 16.0-s és újabb verzióiban a JDK alapértelmezett verziója JDK 8-ról JDK 17-re vált. Ez a változás a JDK 8 tervezett elavulása és a támogatás megszűnése miatt történik. Ez a következőkre van hatással:
- Az Azure Databricks compute-en futó Java-kódnak kompatibilisnek kell lennie a Java 17-zel.
- A jegyzetfüzetekben vagy az Azure Databricks compute-ben futó Scala-kódnak kompatibilisnek kell lennie a Java 17-zel.
- A számításra telepített Java- és Scala-kódtáraknak kompatibilisnek kell lenniük a Java 17-zel.
- Az Apache Hive metaadattár-ügyfél 2.x alatti verziói. Ha a Spark-konfigurációt
spark.sql.hive.metastore.version2.x-nél kisebb verzióra állítja, kompatibilitási problémákat okoz a Java 17-zel, és a Hive metaadattárhoz való kapcsolódási hibákat okoz. A Databricks azt javasolja, hogy frissítse a Hive-t a 2.0.0-snál újabb verzióra.
Ha vissza kell térnie a Java 8-ra, adja hozzá a következőket a Spark környezeti változóihoz az Azure Databricks-számítás konfigurálásakor:
JNAME=zulu8-ca-amd64
ARM-példányok használata esetén használja a következőket:
JNAME=zulu8-ca-arm64
A JDK-verziók Azure Databricks-számítással való megadásáról további információt a fürt létrehozása adott JDK-verzióval című témakörben talál.
A kód Java 8-ból való migrálásával kapcsolatos segítségért tekintse meg az alábbi útmutatókat:
Breaking change: A hosztolt RStudio a használati idő végéhez ért
Ezzel a kiadással a Databricks által üzemeltetett RStudio-kiszolgáló élettartama lejárt, és nem érhető el a Databricks Runtime 16.0-s vagy újabb verzióját futtató Azure Databricks-munkaterületeken. További információ és az RStudio alternatíváinak listája: Csatlakozás a Databricks által üzemeltetett RStudio-kiszolgálóhoz.
Kompatibilitástörő változás: A byte, short, int és long típusok szélesebb típusokra történő módosításának támogatásának eltávolítása
A Databricks Runtime 15.4.3 és újabb verziókban a következő adattípus-módosítások már nem alkalmazhatók a típustágító funkcióval rendelkező táblákra:
-
byte,short,intéslongdecimal. -
byte,short, ésintadouble-hoz.
Ez a módosítás a Delta és az Apache Iceberg táblák konzisztens viselkedésének biztosítása érdekében történik. A típusszűkítésről további információt a Típusszűkítés című témakörben talál.
Regex-minták helyes elemzése negációval és beágyazott karaktercsoportosítással
Ez a kiadás tartalmaz egy módosítást, amely támogatja a regex minták megfelelő elemzését a beágyazott karaktercsoportozásban való negációval. A rendszer például [^[abc]] "bármely olyan karakterként lesz elemezve, amely NEM az "abc" egyike.
Emellett a Photon viselkedése inkonzisztens volt a Sparkkal a beágyazott karakterosztályok esetében. A beágyazott karakterosztályokat tartalmazó Regex-minták már nem használják a Photont, hanem a Sparkot. A beágyazott karakterosztály minden olyan minta, amely szögletes zárójeleket tartalmaz más szögletes zárójeleken belül, például [[a-c][1-3]].
Duplikált egyezésészlelés javítása a Delta Lake-ben MERGE
A Databricks Runtime 15.4 LTS-ben és alatta a műveletek meghiúsulnak, MERGE ha a forrástábla több sora megegyezik a céltábla ugyanazon sorával a MERGEON záradékban megadott feltétel alapján. A Databricks Runtime 16.0-s és újabb verziókban a MERGE záradékban megadott feltételeket is figyelembe veszi WHEN MATCHED. Tekintse meg, hogyan használhatja az "upsert" műveletet egy Delta Lake táblázatban az egyesítési (merge) eljárással.
A klaszterkönyvtár telepítési módszere már nem bírálható felül
A Spark-konfigurációk spark.databricks.libraries.enableSparkPyPI, spark.databricks.libraries.enableMavenResolution és spark.databricks.libraries.enableCRANResolutionnow mostantól alapértelmezettek true, és nem lehet őket felülbírálni.
Két óra alapértelmezett időtúllépése fürt hatókörű kódtár telepítésekor
A Databricks Runtime 16.0-s és újabb verzióiban a fürt hatókörű kódtárának telepítése két óra alapértelmezett időtúllépéssel rendelkezik. Az ennél az időtúllépésnél hosszabb ideig igénybe vett kódtár-telepítések sikertelenek lesznek, és a telepítés leáll. Fürt konfigurálásakor a Spark-konfigurációval spark.databricks.driver.clusterLibraryInstallationTimeoutSecmódosíthatja az időtúllépési időszakot.
A kódtárak telepítése a DBFS-ből és a spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed beállítása le van tiltva
A Databricks Runtime 16.0-s és újabb verziókban a kódtárak dbFS-ből való telepítése teljesen le van tiltva. Ez a módosítás a Databricks-munkaterületen lévő kódtárak biztonságának javítása érdekében történik. Emellett a Databricks Runtime 16.0-s és újabb verziókban már nem használhatja a Spark-konfigurációt spark.databricks.driver.dbfsLibraryInstallationAllowed.
A addArtifact() funkció mostantól konzisztens a számítási típusok között
Ezzel a kiadással az archívum automatikusan ki lesz csomagolva, amikor függőséget ad addArtifact(archive = True) hozzá a megosztott vagy kiszolgáló nélküli Azure Databricks-számításhoz. Ez a módosítás konzisztenssé teszi az addArtifact(archive = True) viselkedését ezeken a számítási típusokon a dedikált (korábban egyfelhasználós) számítással, amely már támogatja az automatikus kicsomagolást.
A speciális karaktereket tartalmazó egyszerű azonosítók esetében megfelelően kikényszerített backticks szabály
Ebben a kiadásban GRANTa speciális karaktereket tartalmazó DENY és REVOKE utasítások mostantól hibát jeleznek, ha nincsenek mellékelve a háttérrendszerbe.
Új funkciók és fejlesztések
-
A módosított Python-modulok megbízhatóbb újratöltése a
autoreloadfejlesztéseivel - Avro támogatás rekurzív sémához
- to_avro és from_avro függvények
- A Confluent Schema Registry kiterjesztett támogatása az Avro-hoz
- Újracsoportosítás kényszerítése a folyékony fürtözésű táblákon
- A Pythonhoz és a Scalához készült Delta API-k mostantól támogatják az identitásoszlopokat
- A dedikált (korábban egyfelhasználós) számításon alapuló részletes hozzáférés-vezérlés általánosan elérhető
- Folyékony klaszterezett táblák létrehozása streaming írások során
- A OPTIMIZE FULL záradék támogatása
- A WITH opciók specifikációjának támogatása INSERT és a táblahivatkozás
- Új SQL-függvények
- Automatikus sémafejlődés engedélyezése adatok Delta-táblába való egyesítésekor
A módosított Python modulok megbízhatóbb újratöltése az autoreload fejlesztéseinek köszönhetően.
A Databricks Runtime 16.0-s és újabb verzióiban a autoreload bővítmény frissítései növelik a munkaterületfájlokból importált módosított Python-modulok újratöltésének biztonságát és megbízhatóságát. Ezekkel a módosításokkal autoreloadlehetőség szerint csak a modul azon részét tölti be újra, amely a teljes modul helyett módosult. Emellett az Azure Databricks mostantól automatikusan javasolja a autoreload bővítmény használatát, ha a modul a legutóbbi importálás óta megváltozott. Lásd: Python-modulok automatikus betöltése.
Rekurzív séma Avro-támogatása
Most már használhatja a recursiveFieldMaxDepth lehetőséget a from_avro funkcióval és a avro adatforrással. Ez a beállítás a séma-rekurzió maximális mélységét állítja be az Avro-adatforráson. Tekintse meg a streaming Avro-adatok olvasása és írása című részt.
to_avro és from_avro függvények
A to_avro és from_avro függvények lehetővé teszik az SQL-típusok Avro bináris adatokké és visszaalakítását.
Az Avro számára kiterjesztett támogatás a Confluent Schema Registry-hez.
Az Azure Databricks mostantól támogatja az Avro-sémahivatkozást a Confluent sémaregisztrációs adatbázisával. Lásd: Hitelesítés külső Confluent-sémaregisztrációs adatbázisba.
Kényszerítsen újrafürtözést azoknál a tábláknál, amelyek folyékony fürtözéssel rendelkeznek
A Databricks Runtime 16.0-s és újabb verzióiban a OPTIMIZE FULL szintaxissal kényszerítheti a tábla összes rekordjának újracsoportosítását, ha engedélyezve van a folyékony klaszterezés. Lásd Az összes rekord kényszerű újracsoportosítását.
A Pythonhoz és a Scalához készült Delta API-k mostantól támogatják az identitásoszlopokat
Mostantól a Pythonhoz és a Scalához készült Delta API-k segítségével identitásoszlopokat tartalmazó táblákat hozhat létre. Lásd: Identitásoszlopok használata a Delta Lake-ben.
A dedikált (korábban egyfelhasználós) számításon alapuló részletes hozzáférés-vezérlés általánosan elérhető
A Databricks Runtime 16.0-s és újabb verziókban a dedikált számítási feladatok részletes hozzáférés-vezérlése általánosan elérhető. A kiszolgáló nélküli számításhoz engedélyezett munkaterületeken, ha egy lekérdezés támogatott számításon, például dedikált számításon fut, és a lekérdezés a következő objektumok bármelyikéhez hozzáfér, a számítási erőforrás átadja a lekérdezést a kiszolgáló nélküli számításnak az adatszűrés futtatásához:
- Olyan táblákhoz definiált nézetek, amelyeken a felhasználó nem rendelkezik
SELECTjogosultsággal. - Dinamikus nézetek.
- Sorszűrőket vagy oszlopmaszkokat tartalmazó táblák.
- Materializált nézetek és Streaming táblák
Folyékony fürtözött táblák létrehozása streamelési írások során
Mostantól használhatja a clusterBy-t, hogy engedélyezze a folyékony klaszterezést, amikor új táblákat hoz létre strukturált adatfolyam írásával. Lásd Folyékony klaszterezés engedélyezése.
A OPTIMIZE FULL záradék támogatása
A Databricks Runtime 16.0 támogatja a OPTIMIZE FULL záradékot. Ez a feltétel optimalizálja a folyékony klaszterezést használó táblában lévő összes rekordot, beleértve a korábban klaszterezett adatokat is.
WITH-beállítások specifikációjának támogatása a INSERT-ban és a táblahivatkozásban
A Databricks Runtime 16.0 támogatja az opciók specifikációját, amely táblázat hivatkozásokra és táblázatnevekre vonatkozik egy INSERT utasításban, és amely az adatforrások viselkedésének szabályozására használható.
Új SQL-függvények
A Databricks Runtime 16.0-ban hozzáadott SQL-függvények a következők:
-
Ez a függvény a url_decode hibatűrő verziója. Ez a függvény akkor ad
NULLvissza, ha a bemenet nem érvényes URL-kódolású sztring. -
Ha a függvény bemeneti kifejezése
zeroifnull()azNULL, akkor a függvény 0 értéket ad vissza. Ellenkező esetben a bemeneti kifejezés értéke lesz visszaadva. -
Akkor adja
NULLvissza, ha a bemenet 0, vagy ha nem 0. Ha a függvény bemeneti kifejezésenullifzero()0, akkor a függvény ad visszaNULL. Ha a bemeneti kifejezés nem 0, a bemeneti kifejezés értéke lesz visszaadva
Automatikus sémafejlődés engedélyezése adatok Delta-táblába való egyesítésekor
Ez a kiadás támogatja az withSchemaEvolution() osztály tagját DeltaMergeBuilder . Az withSchemaEvolution() automatikus sémafejlődés engedélyezésére használható a MERGE műveletek során. Például: mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}.
Egyéb módosítások
A SparkR megszűntetés alatt áll
A Databricks Runtime 16.0 és újabb verzióiban a SparkR a Databricksben megszüntetés előtt áll, felkészülve a Spark 4 közelgő kiadásában várható megszüntetésére. Tekintse meg az Apache Spark SparkR elavulásával foglalkozó szálat.
A Databricks inkább a Sparklyr használatát javasolja.
A Databricks Runtime 16.0 nem támogatott PVC-vel
A Databricks Runtime 16.0-t a Databricks Private Virtual Cloud (PVC) nem támogatja. A Databricks Runtime 15.4-es vagy alacsonyabb verzióját kell használni az összes PVC-kiadással együtt.
Hibajavítások
Az Auto Loader mostantól üres sémák esetén kezeli az Avro-rekordtípusokat
Ha egy Avro-fájlt az Automatikus betöltő használatával tölt be egy Delta-táblába, record a rendszer hozzáadja az üres sémával rendelkező fájltípusokat a mentett adatoszlophoz. Mivel nem tölthet be üres összetett adattípusokat egy Delta-táblába, ez megold néhány Avro-fájl betöltésével kapcsolatos problémát. A mentett adatokról további információt a Mi a mentett adatoszlop? című témakörben talál.
Kijavítottuk a második eltolást tartalmazó időzónákat tartalmazó időbélyegek írásának hibáit.
Ez a kiadás kijavít egy hibát, amely bizonyos időbélyegeket érint olyan időzónák esetében, amelyek másodlagos eltolást tartalmaznak. Ez a hiba miatt a másodpercek nem lesznek megadva, amikor JSON-, XML- vagy CSV-fájlba írnak, ami helytelen időbélyeg-értékeket eredményez.
Az előző viselkedéshez való visszatéréshez használja a következő lehetőséget, amikor az egyik érintett formátumba ír: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]").
Könyvtárfrissítések
- Frissített Python-kódtárak:
- azure-core 1.30.2-től 1.31.0-sig
- azure-storage-blob 12.19.1-től 12.23.0-ra
- azure-storage-file-datalake 12.14.0-tól 12.17.0-ra
- fekete 23.3.0 és 24.4.2 között
- villogó 1,4 és 1,7,0 között
- boto3 1.34.39 és 1.34.69 között
- botocore 1.34.39 és 1.34.69 között
- tanúsítvány 2023.7.22-től 2024.6.2-ig
- cffi 1.15.1 és 1.16.0 között
- kattintson a 8.0.4-től a 8.1.7-hez
- comm 0.1.2-tól 0.2.1-ig
- contourpy 1.0.5-től 1.2.0-ra
- titkosítás a 41.0.3-tól a 42.0.5-ösig
- Cython 0.29.32-től 3.0.11-ig
- databricks-sdk 0.20.0 és 0.30.0 között
- dbus-python 1.2.18 és 1.3.2 között
- filelock frissítése 3.13.4-ről 3.15.4-re
- fonttools 4.25.0-tól 4.51.0-ra
- GitPython 3.1.43-tól 3.1.37-ig
- google-api-core 2.18.0-tól 2.20.0-ra
- google-hitelesítés 2.31.0-tól 2.35.0-ig
- google-cloud-storage 2.17.0 és 2.18.2 között
- google-crc32c 1.5.0 és 1.6.0 között
- google-resumable-media 2.7.1-től 2.7.2-ig
- googleapis-common-protos 1.63.2-től 1.65.0-ra
- httplib2 0.20.2 és 0.20.4 között
- idna 3,4 és 3,7 között
- ipykernel 6.25.1 és 6.28.0 között
- ipython 8.15.0-tól 8.25.0-ig
- jedi 0.18.1-től 0.19.1-től
- jmespath 0.10.0 és 1.0.1 között
- joblib 1.2.0 és 1.4.2 között
- jupyter_client 7.4.9-től 8.6.0-ra
- jupyter_core 5.3.0-ról 5.7.2-re
- launchpadlib 1.10.16-ról 1.11.0-ra
- lazr.restfulclient 0.14.4-től 0.14.6-osig
- matplotlib 3.7.2 és 3.8.4 között
- mlflow-skinny 2.11.4-től 2.15.1-esig
- more-itertools 8.10.0-tól 10.3.0-ra
- mypy-extensions 0.4.3-ról 1.0.0-ra
- nest-asyncio 1.5.6 és 1.6.0 között
- numpy 1.23.5 és 1.26.4 között
- oauthlib 3.2.0-tól 3.2.2-ig
- csomagolás 23,2 és 24,1 közötti méretű
- patsy 0.5.3-tól 0.5.6-ig
- pip 23.2.1-ről 24.2-re
- plotly 5.9.0-ról 5.22.0-ra
- prompt-toolkit 3.0.36-ról 3.0.43-ra
- pyarrow 14.0.1 és 15.0.2 között
- pydantic verzió 1.10.6-ról 2.8.2-re
- PyGObject 3.42.1 és 3.48.2 között
- PyJWT 2.3.0 és 2.7.0 között
- pyodbc 4.0.38-tól 5.0.1-ig
- python-dateutil 2.8.2 és 2.9.0.post0 között
- python-lsp-jsonrpc 1.1.1-ről 1.1.2-re
- pytz 2022.7-től 2024.1-ig
- PyYAML 6.0 és 6.0.1 között
- pyzmq 23.2.0 és 25.1.2 között
- 2.31.0 és 2.32.2 közötti kérelmek
- scikit-learn 1.3.0-1.4.2
- scipy 1.11.1-ról 1.13.1-re verziószámok között változik
- seaborn 0.12.2-től 0.13.2-ig
- setuptools 68.0.0-tól 74.0.0-ra
- smmap 5.0.1-től 5.0.0-ra
- sqlparse 0.5.0 és 0.5.1 között
- statsmodels 0.14.0-tól 0.14.2-ig
- tornádó 6.3.2 és 6.4.1 között
- traitlets 5.7.1-től 5.14.3-ig
- typing_extensions 4.10.0-tól 4.11.0-ra
- ujson 5.4.0-tól 5.10.0-ra
- virtualenv 20.24.2 és 20.26.2 között
- a "wheel" frissítése 0.38.4-ről 0.43.0-ra
- zipp 3.11.0-ról 3.17.0-ra
- Frissített R-kódtárak:
- nyíl a 14.0.0.2-től a 16.1.0-sig
- Visszaportok 1.4.1-ről 1.5.0-ra
- alap 4.3.2-től 4.4.0-ig
- bitops 1.0-7-ből 1.0-8-ra
- verzióváltás 1.3-28-ról 1.3-30-ra
- brio 1.1.4 verzióról 1.1.5 verzióra
- seprű 1.0.5-től 1.0.6-osig
- bslib 0.6.1-től 0.8.0-ra
- cachem 1.0.8-tól 1.1.0-sig
- callr 3.7.3-ról 3.7.6-ra
- cli 3.6.2 és 3.6.3 között
- frissítés 0.7.0-ról 0.7.1-re
- klaszter 2.1.4-től 2.1.6-ig
- 0,2-19 és 0,2-20 közötti kódtoolok
- színtér 2.1-0 és 2.1-1 között
- fordító a 4.3.2-től a 4.4.0-sig
- crayon 1.5.2-től 1.5.3-ra
- curl 5.2.0 verzióról 5.2.1 verzióra
- data.table 1.15.0-ról 1.15.4-re való frissítés
- adatkészletek a 4.3.2-től a 4.4.0-sig
- DBI 1.2.1-től 1.2.3-ra
- dbplyr 2.4.0 és 2.5.0 között
- kivonatolás a 0.6.34-től a 0.6.36-osig
- Lefokozva a 0.4.3-ról a 0.4.4-ra
- kiértékelés 0,23-tól 0,24.0-ig
- farver 2.1.1-től 2.1.2-ig
- gyorstérkép 1.1.1-től 1.2.0-sig
- külső 0,8-85-ről 0,8-86-ra
- fs 1.6.3–1.6.4
- 1.33.1-től 1.34.0-ra
- future.apply 1.11.1 és 1.11.2 verzió között
- gert 2.0.1-től 2.1.0-ra
- ggplot2 3.4.4 és 3.5.1 között
- gh 1.4.0 és 1.4.1 között
- Globálisok 0.16.2-ről 0.16.3-ra
- 4.3.2 és 4.4.0 közötti grafikus elemek
- grDevices 4.3.2-től 4.4.0-ra
- verziófrissítés 4.3.2-ről 4.4.0-ra
- gt 0.10.1-től 0.11.0-ra
- gtable 0.3.4-től 0.3.5-ösig
- hardhat 1.3.1-től 1.4.0-ra
- highr 0,10 és 0,11 között
- htmltoolok 0.5.7-től 0.5.8.1-ig
- httpuv 1.6.14-től 1.6.15-ösig
- httr2 1.0.0 és 1.0.2 között
- ipred 0,9-14-0,9-15
- KernSmooth 2.23-21-ről 2.23-22-re
- knitr 1,45-től 1,48-ig
- rács 0,21-8-tól 0,22-5-re
- láva 1.7.3-tól 1.8.0-ra
- markdown verziójának frissítése 1.12-ről 1.13-ra
- TÖMEG 7.3-60-ről 7.3-60.0.1-re
- Mátrix 1,5-4,1-1,6-5 között
- metódusok a 4.3.2-től a 4.4.0-sig
- mgcv 1,8-42-1,9-1
- mlflow 2.10.0 és 2.14.1 között
- munsell 0.5.0 és 0.5.1 között
- nlme a 3.1-163-as verzióról a 3.1-165-ös verzióra
- Az openssl frissítése 2.1.1-ről 2.2.0-ra.
- párhuzamosan a 4.3.2-ről a 4.4.0-ra
- párhuzamosan az 1.36.0-tól az 1.38.0-sig
- pkgbuild 1.4.3-tól 1.4.4-re
- pkgdown 2.0.7-től 2.1.0-ra
- pkgload 1.3.4-től 1.4.0-ra
- processx frissítése 3.8.3-ról 3.8.4-re
- prodlim 2023.08.28-tól 2024.06.25-ig
- ígéretek 1.2.1-től 1.3.0-ig
- ps 1.7.6 és 1.7.7 között
- ragg 1.2.7 és 1.3.2 között
- Rcpp 1.0.12-től 1.0.13-ra
- RcppEigen 0.3.3.9.4 és 0.3.4.0.0 között
- reactR 0.5.0 és 0.6.0 között
- receptek 1.0.9-től 1.1.0-ra
- 2.4.2.1-es verziótól 2.5.0-ás verzióra
- reprex 2.1.0-ról 2.1.1-re
- rlang 1.1.3-tól 1.1.4-ig
- rmarkdown 2.25-től 2.27-ig
- roxygen2 7.3.1-től 7.3.2-ig
- rpart 4.1.21-től 4.1.23-ig
- RSQLite 2.3.5 és 2.3.7 között
- rstudioapi 0.15.0-tól 0.16.0-ra
- rvest 1.0.3 és 1.0.4 között
- sass 0.4.8 verzióról 0.4.9 verzióra
- alakzat 1.4.6-tól 1.4.6.1-ig
- fényes 1.8.0 és 1.9.1 között
- sparklyr 1.8.4-től 1.8.6-osig
- térbeli 7,3-15-tól 7,3-17-ig
- spline-ek 4.3.2-ről 4.4.0-ra
- 4.3.2 és 4.4.0 közötti statisztikák
- statisztikái4 a 4.3.2-től a 4.4.0-sig
- stringi frissítése 1.8.3-ról 1.8.4-re
- túlélés 3,5-5 és 3,6-4 között
- swagger 3.33.1-től 5.17.14.1-ig
- A systemfonts 1.0.5-ről 1.1.0-re frissítve
- tcltk 4.3.2-től 4.4.0-ra
- testthat 3.2.1 és 3.2.1.1 között
- szövegformázás 0.3.7-től 0.4.0-ra
- tidyselect 1.2.0-ról 1.2.1-re
- tinytex 0,49 és 0,52 között
- 4.3.2 és 4.4.0 közötti eszközök
- usethis 2.2.2-től 3.0.0-ig
- segédprogramok 4.3.2-ről 4.4.0-ra
- uuid 1.2-0-ról 1.2-1-re
- V8 4.4.1 és 4.4.2 között
- 3.0.0 és 3.0.1 közötti elválasztó
- xfun 0,41-től 0,46-ig
- xopen 1.0.0 és 1.0.1 között
- yaml 2.3.8–2.3.10
- Frissített Java-kódtárak:
- Az "com.amazonaws.aws-java-sdk-autoscaling" frissítése verzióról 1.12.610 verzióra 1.12.638.
- com.amazonaws.aws-java-sdk-cloudformation 1.12.610-től 1.12.638-ig
- com.amazonaws.aws-java-sdk-cloudfront 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-cloudhsm 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-cloudsearch 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-cloudtrail 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-cloudwatch 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-cloudwatchmetrics 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-codedeploy frissítése 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-cognitoidentity 1.12.610-tól 1.12.638-ig
- com.amazonaws.aws-java-sdk-cognitosync 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-config 1.12.610 verzióról 1.12.638 verzióra
- com.amazonaws.aws-java-sdk-core 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-datapipeline 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-directconnect 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-directory 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-dynamodb 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-ec2 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-ecs 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-efs 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-elasticache 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-elasticbeanstalk 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-elasticloadbalancing verzióinak frissítése 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-elastictranscoder 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-emr 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-glacier 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-glue 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-iam 1.12.610-től 1.12.638-ig
- com.amazonaws.aws-java-sdk-importexport 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-kinesis 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-kms 1.12.610-tól 1.12.638-ig
- com.amazonaws.aws-java-sdk-lambda 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-logs 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-machinelearning 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-opsworks 1.12.610-ról 1.12.638-ra
- com.amazonaws.aws-java-sdk-rds 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-redshift 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-route53 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-s3 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-ses 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-simpledb 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-simpleworkflow 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-sns 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-sqs 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-ssm 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-storagegateway 1.12.610-tól 1.12.638-ig
- com.amazonaws.aws-java-sdk-sts 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-support 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-workspaces verziója 1.12.610-ről 1.12.638-ra
- com.amazonaws.jmespath-java 1.12.610-től 1.12.638-ra
- com.google.protobuf.protobuf-java 2.6.1 és 3.25.1 között
- io.airlift.aircompressor frissítés 0,25-ről 0,27-re
- io.delta.delta-sharing-client_2.12 1.1.3 és 1.2.0 között
- io.netty.netty-all 4.1.96.Final-ról 4.1.108.Final-re
- io.netty.netty-buffer 4.1.96.Final-ról 4.1.108.Final-ra
- io.netty.netty-codec a 4.1.96.Final verzióról a 4.1.108.Final verzióra
- io.netty.netty-codec-http-tól 4.1.96.Final-ig 4.1.108.Final-ig
- io.netty.netty-codec-http2 4.1.96.Finalról 4.1.108.Finalra
- io.netty.netty-codec-socks 4.1.96.Final-ról 4.1.108.Final-re
- io.netty.netty-common 4.1.96.Final-ről 4.1.108.Final-re
- io.netty.netty-handler frissítve a 4.1.96.Final-ról a 4.1.108.Final-re
- io.netty.netty-handler-proxy a 4.1.96.Final változatról 4.1.108.Final verzióra
- io.netty.netty-resolver 4.1.96.Final verzióról 4.1.108.Final verzióra
- io.netty.netty-transport 4.1.96.Final-ról 4.1.108.Final-re
- io.netty.netty-transport-classes-epoll 4.1.96.Final verzióról a 4.1.108.Final verzióra
- io.netty.netty-transport-classes-kqueue 4.1.96.Final verzióról 4.1.108.Final verzióra
- io.netty.netty-transport-native-epoll 4.1.96.Final-linux-x86_64-ról 4.1.108.Final-linux-x86_64-ra
- io.netty.netty-transport-native-kqueue 4.1.96.Final-osx-x86_64-tól 4.1.108.Final-osx-x86_64-ig
- io.netty.netty-transport-native-unix-common 4.1.96.Final–4.1.108.Final
- org.apache.ivy.ivy 2.5.1 és 2.5.2 között
- org.apache.zookeeper.zookeeper 3.6.3-tól 3.9.2-ig
- org.apache.zookeeper.zookeeper-jute 3.6.3-tól 3.9.2-re
- org.rocksdb.rocksdbjni 8.11.4-től 9.2.1-től
- org.scalactic.scalactic_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-compatible 3.2.15-ről 3.2.16-ra
- org.scalatest.scalatest-core_2.12 3.2.15-ről 3.2.16-ra
- org.scalatest.scalatest-diagrams_2.12 3.2.15 verzióról 3.2.16 verzióra
- org.scalatest.scalatest-featurespec_2.12 3.2.15-től 3.2.16-ig
- org.scalatest.scalatest-flatspec_2.12 3.2.15-től 3.2.16-ig
- org.scalatest.scalatest-freespec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-funspec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-funsuite_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-matchers-core_2.12 3.2.15-ről 3.2.16-ra
- org.scalatest.scalatest-mustmatchers_2.12 3.2.15-ről 3.2.16-ra
- org.scalatest.scalatest-propspec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-refspec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-shouldmatchers_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-wordspec_2.12 3.2.15-től 3.2.16-ig
- org.scalatest.scalatest_2.12 3.2.15-ről 3.2.16-ra
Apache Spark
A Databricks Runtime 16.0 tartalmazza az Apache Spark 3.5.0-t. Ez a kiadás tartalmazza a Databricks Runtime 15.4 LTS-ben található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-49093] [DBRRM-1371] Revert “[SC-172958][sql] GROUP BY MapType nes használatával...
- [SPARK-49898] [DBRRM-1282][sc-178410] Az eseménynapló-tevékenység metrikáinak felhalmozási naplózására szolgáló jelző zászló dokumentációjának és alapértelmezésének javítása a SPARK-42204 alapján
- [SPARK-49743] [ES-1260022][viselkedés-157][SC-177475][sql] Az OptimizeCsvJsonExpr nem módosíthatja a sémamezőket a GetArrayStructFields metszésekor
- [SPARK-49816] [SC-177896][sql] Csak a hivatkozott külső CTE-re vonatkozó reláció kimenő hivatkozás-számát kell frissíteni
- [SPARK-48939] [SC-177022][sc-172766][AVRO] Az Avro olvasásának támogatása rekurzív sémahivatkozással
- [SPARK-49688] [SC-177468][es-1242349][CONNECT] Adatversenyhelyzet javítása a megszakítás és a terv végrehajtása között
- [SPARK-49771] [SC-177466][python] A Pandas skaláris iter UDF-hiba javítása, ha a kimeneti sorok túllépik a bemeneti sorokat
- [SPARK-48866] [SC-170772][sql] Kijavítottuk az INVALID_PARAMETER_VALUE.CHARSET hibaüzenetben szereplő érvényes karakterkészletre vonatkozó tippeket.
- [SPARK-48195] [FIXFORWARD][sc-177267][CORE] A SparkPlan által létrehozott RDD/Broadcast mentése és újrafelhasználása
- [SPARK-49585] [CONNECT] A végrehajtások térképének cseréje a SessionHolderben műveletazonosító halmazra
- [SPARK-49211] [SC-174257][sql] V2 Katalógus beépített adatforrásokat is támogat
- [SPARK-49684] A munkamenet-visszaállítási zárolás élettartamának minimalizálása
- [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPARK-48291] Strukturált napló keretrendszer a Java oldalán
- [SPARK-48857] [SC-170661][sql] A CSVOptionsban lévő karakterkészletek korlátozása
- [SPARK-49152] [SC-173690][sql] V2SessionCatalog v2Command-t kell használnia
- [SPARK-42846] [SC-176588][sql] Hibaállapot eltávolítása _LEGACY_ERROR_TEMP_2011
- [SPARK-48195] [SC-177267][core] A SparkPlan által létrehozott RDD/Broadcast mentése és újrafelhasználása
- [SPARK-49630] [SC-177379][ss] Lapítási opció hozzáadása a gyűjteménytípusok feldolgozásához állapotadat-forrással rendelkező olvasóval
- [SPARK-49699] [SC-177154][ss] PruneFilters letiltása a streamelési munkafolyamatokhoz
- [SPARK-48781] [SC-175282][sql] Katalógus API-k hozzáadása tárolt eljárások betöltéséhez
- [SPARK-49667] [SC-177068][sql] Tiltsa le CS_AI stringSearch-t használó kifejezésekkel rendelkező collatorokat
- [SPARK-49737] [SC-177207][sql] A gyűjtőzés letiltása összetett típusok csoportosított oszlopaiban
- [SPARK-48712] [SC-169794][sql] Perf Fejlesztés üres értékekkel vagy UTF-8 karakterkészlettel történő kódoláshoz
- [SPARK-49038] [SC-173933][sql] Az SQLMetricnak jelentenie kell a nyers értéket az akkumulátor frissítési eseményében
- [SPARK-48541] [SC-169066][core] Új kilépési kód hozzáadása a TaskReaper által megölt végrehajtókhoz
- [SPARK-48774] [SC-170138][sql] SparkSession használata az SQLImplicitsben
-
[SPARK-49719] [SC-177139][sql] Készítsük el, hogy a
UUIDésSHUFFLEelfogadjon egész számseed -
[SPARK-49713] [SC-177135][python][CONNECT] Függvény létrehozása
count_min_sketchszámargumentumok elfogadása - [SPARK-47601] [SC-162499][graphx] Graphx: Naplók áttelepítése változókkal strukturált naplózási keretrendszerbe
- [SPARK-49738] [SC-177219][sql] Hibajavítással végződik
- [SPARK-48623] [SC-170822][core] Strukturált naplózási migrálások [3. rész]
- [SPARK-49677] [SC-177148][ss] Győződjön meg arról, hogy a változásnapló-fájlok a commitnél íródnak meg, és a forceSnapshot zászló is alaphelyzetbe állítódik.
- [SPARK-49684] [SC-177040][connect] A munkamenet- és végrehajtási kezelők globális zárolásainak eltávolítása
- [SPARK-48302] [SC-168814][python] Null értékek megőrzése a PyArrow-táblák térképoszlopaiban
- [SPARK-48601] [SC-169025][sql] Adjon felhasználóbarátabb hibaüzenetet a JDBC-beállítás null értékének beállításakor
- [SPARK-48635] [SC-169263][sql] Osztályok hozzárendelése illesztéstípushibákhoz és as-of illesztéshiba
- [SPARK-49673] [SC-177032][connect] Növelje a CONNECT_GRPC_ARROW_MAX_BATCH_SIZE 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
-
[SPARK-49693] [SC-177071][python][CONNECT] A
timedeltaszöveges ábrázolásának finomítása -
[SPARK-49687] [SC-176901][sql] Késleltetett rendezés a
validateAndMaybeEvolveStateSchema -
[SPARK-49718] [SC-177112][ps]
Scattermintaadatokra váltása - [SPARK-48472] [SC-169044][sql] A tükrözött kifejezések engedélyezése csoportosított sztringekkel
- [SPARK-48484] [SC-167484][sql] Javítás: A V2Write ugyanazt a TaskAttemptId azonosítót használja a különböző tevékenységkísérletekhez
- [SPARK-48341] [SC-166560][connect] Lehetővé teszi a beépülő modulok számára a QueryTest használatát a tesztjeikben
-
[SPARK-42252] [SC-168723][core]
spark.shuffle.localDisk.file.output.bufferhozzáadása ésspark.shuffle.unsafe.file.output.bufferelavulttá nyilvánítása - [SPARK-48314] [SC-166565][ss] Ne gyorsítótárazza duplán a FileStreamSource fájljait a Trigger.AvailableNow használatával
-
[SPARK-49567] [SC-176241][python] A PySpark-kódbázisból származó
classichelyettvanillahasználata - [SPARK-48374] [SC-167596][python] További PyArrow-táblaoszloptípusok támogatása
-
[SPARK-48300] [SC-166481][sql] Kódegenerálási támogatás
from_xmlszámára - [SPARK-49412] [SC-177059][ps] Az összes meződiagram metrikáinak kiszámítása egyetlen feladatban
- [SPARK-49692] [SC-177031][python][CONNECT] A konstans dátum és dátum idő sztringjének pontosítása
- [SPARK-49392] [ES-1130351][sc-176705][SQL] Hibaüzenetek a külső adatforrásba való írás sikertelensége esetén
- [SPARK-48306] [SC-166241][sql] Az UDT javítása hibaüzenetben
- [SPARK-44924] [SC-166379][ss] Konfiguráció hozzáadása a FileStreamSource gyorsítótárazott fájljaihoz
- [SPARK-48176] [SC-165644][sql] FIELD_ALREADY_EXISTS hibafeltétel nevének módosítása
-
[SPARK-49691] [SC-176988][python][CONNECT] Függvénynek
substringoszlopneveket kell elfogadnia - [SPARK-49502] [SC-176077][core] Az NPE elkerülése a SparkEnv.get.shuffleManager.unregisterShuffle-ben
- [SPARK-49244] [SC-176703][sql] További kivételfejlesztések az elemző/értelmező számára
- [SPARK-48355] [SC-176684][sql] CASE utasítás támogatása
-
[SPARK-49355] [SC-175121][sql]
levenshteinellenőriznie kell, hogy az összes paramétertípuscollationértékei megegyeznek-e -
[SPARK-49640] [SC-176953][ps] Tározómintavétel alkalmazása
SampledPlotBase -
[SPARK-49678] [SC-176857][core] Támogatás
spark.test.masteraSparkSubmitArguments-ben -
[SPARK-49680] [SC-176856][python] A
Sphinxbuildelt párhuzamosság alapértelmezés szerint 4-re van korlátozva - [SPARK-49396] Visszavonás: "[SC-176030][sql] Nullability check for CaseWhen expression"
- [SPARK-48419] [SC-167443][sql] Cserélje le az összevonható oszlopot az összevonható propagálás során...
- [SPARK-49556] [SC-176757][sql] Sql-cső szintaxisának hozzáadása az SELECT operátorhoz
-
[SPARK-49438] [SC-175237][sql] A
FromAvro&ToAvrokifejezés szép nevének javítása - [SPARK-49659] [SC-1229924][sql] Szolgáltasson egy felhasználóbarát hibát a skaláris al-lekérdezésekhez a VALUES záradékon belül
- [SPARK-49646] [SC-176778][sql] javítsa az allekérdezések dekorrelációját az unió/halmazműveletek esetén, amikor a parentOuterReferences olyan hivatkozásokat tartalmaz, amelyekre a collectedChildOuterReferences nem terjed ki
-
[SPARK-49354] [SC-175034][sql]
split_partellenőriznie kell, hogy az összes paramétertípuscollationértékei megegyeznek-e - [SPARK-49478] [SC-175914][connect] Null metrikák kezelése a ConnectProgressExecutionListenerben
- [SPARK-48358] [SC-176374][sql] REPEAT utasítás támogatása
- [SPARK-49183] [SC-173680][sql] A V2SessionCatalog.createTable-nek figyelembe kell vennie a PROP_IS_MANAGED_LOCATION-t.
-
[SPARK-49611] [SC-176791][sql] A TVF bevezetése
collations()& távolítsa el aSHOW COLLATIONSparancsot - [SPARK-49261] [SC-176589][sql] Az összesítő kifejezésekben lévő literálokat ne cserélje le csoportosítási kifejezésekre
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace tiszteletben kell tartania az egyéni munkamenet-katalógust
- [SPARK-49594] [SC-176569][ss] Annak ellenőrzése, hogy a StateSchemaV3 fájl írásához hozzáadták vagy eltávolították-e az oszlopfamiliákat
- [SPARK-49578] [SC-176385][sql] Távolítsa el az ANSI konfigurációs javaslatát a CAST_OVERFLOW és CAST_INVALID_INPUT esetében.
- [SPARK-48882] [SC-174256][ss] Nevek hozzárendelése streamelési kimeneti móddal kapcsolatos hibaosztályokhoz
-
[SPARK-49155] [SC-176506][sql][SS] A
GenericArrayDatalétrehozásához használjon megfelelőbb paramétertípust - [SPARK-49519] [SC-176388][sql] A tábla és a reláció opcióinak egyesítése a FileScanBuilder létrehozásakor
- [SPARK-49591] [SC-176587][sql] Logikai típus oszlop hozzáadása a változatolvasáshoz
-
[SPARK-49596] [SC-176423][sql] A
FormatStringteljesítményének javítása - [SPARK-49525] [SC-176044][ss][CONNECT] Kisebb naplófejlesztés a kiszolgálóoldali streamelési lekérdezésfigyelőbus-figyelőhöz
-
[SPARK-49583] [SC-176272][sql] Adja meg a hiba alfeltételét
SECONDS_FRACTIONérvénytelen másodperces törtminta esetén - [SPARK-49536] [SC-176242] A Python streamelési adatforrásrekord-előkezelésével kapcsolatos hiba kezelése
- [SPARK-49443] [SC-176273][sql][PYTHON] Implementálja a to_variant_object kifejezéseket, és a schema_of_variant kifejezések OBJECT-t nyomtatnak ki a Variant objektumok számára.
- [SPARK-49544] [SASP-3990][sc-176557][CONNECT] A SparkConnectExecutionManager durva zárolását cseréljük ki ConcurrentMap-ra
- [SPARK-49548] [SASP-3990][sc-176556][CONNECT] Cserélje le a durva zárolást a SparkConnectSessionManagerben egyidejű leképezéssel
- [SPARK-49551] [SC-176218][ss] A RocksDB-napló javítása a visszajátszáshozChangelog
-
[SPARK-49595] [SC-176396][connect][SQL]
DataFrame.unpivot/meltjavítása a Spark Connect Scala-ügyfélprogramban - [SPARK-49006] [SC-176162] Purging implementálása OperatorStateMetadataV2 és StateSchemaV3 fájlokhoz
-
[SPARK-49600] [SC-176426][python] Távolítsa el a
Python 3.6 and older-hez kapcsolódó logikáttry_simplify_traceback-ból. - [SPARK-49303] [SC-176013][ss] TTL implementálása ValueState-hez az transformWithStateInPandas API-ban
- [SPARK-49191] [SC-176243][ss] Támogatás hozzáadása a transformWithState leképezési állapotban lévő változók állapotadat-olvasóval történő olvasásához
- [SPARK-49593] [SC-176371][ss] Dobja a hívónak a RocksDB-kivételt a lezárás során, ha hiba lép fel
-
[SPARK-49334] [SC-174803][sql]
str_to_mapellenőriznie kell, hogy az összes paramétertípuscollationértékei megegyeznek-e - [SPARK-42204] [SC-176126][core] Lehetőség hozzáadása a TaskMetrics belső akkumulátorainak redundáns naplózásának letiltásához az eseménynaplókban
- [SPARK-49575] [SC-176256][ss] Csak akkor adja hozzá a zárolási kiadás naplózását, ha a megkapottThreadInfo nem null értékű
- [SPARK-49539] [SC-176250][ss] A belső oszlopcsaládok kezdőazonosítójának frissítése egy másikra
- [SPARK-49205] [SC-173853][sql] A KeyGroupedPartitioningnek örökölnie kell a HashPartitioningLiket
- [SPARK-49396] [SC-176030][sql] Módosítsa a nullálhatósági ellenőrzést a CaseWhen kifejezéshez
- [SPARK-49476] [SC-175700][sql] A base64 függvény null értékűségének javítása
- [SPARK-47262] [SC-174829][sql] Nevek hozzárendelése a parquet-konverziók hibafeltételeihez
- [SPARK-47247] [SC-158349][sql] Használjon kisebb célméretet, ha a partíciókat robbanásszerű illesztésekkel egyesíti
- [SPARK-49501] [SC-176166][sql] A tábla helyének dupla escapelésének javítása
- [SPARK-49083] [SC-173214][connect] Engedélyezi a from_xml és from_json natív használatát json-sémákkal
- [SPARK-49043] [SC-174673][sql] Kijavítottuk az értelmezett codepath csoportot a rendezett sztringeket tartalmazó térképen
- [SPARK-48986] [SC-172265][connect][SQL] Oszlopcsomópont köztes ábrázolásának hozzáadása
- [SPARK-49326] [SC-176016][ss] A Foreach sink felhasználói függvény hibáinak hibaosztályba sorolása
-
[SPARK-48348] [SC-175950][spark-48376][SQL]
LEAVEésITERATEutasítások bemutatása - [SPARK-49523] [SC-175949][connect] A kapcsolódási kiszolgáló maximális várakozási idejének növelése a teszteléshez
- [SPARK-49000] [BEHAVE-105][es-1194747][SQL] Kijavítottuk a "select count(distinct 1) from t" kifejezést, ahol a t üres tábla a RewriteDistinctAggregates bővítésével – Databricks Runtime verzió 16.x
- [SPARK-49311] [SC-175038][sql] Lehetővé teszi, hogy a nagy 'másodperces intervallum' értékek tizedes törtté alakíthatók legyenek.
- [SPARK-49200] [SC-173699][sql] Null típusú, nem codegen alapú rendezési kivétel javítása
- [SPARK-49467] [SC-176051][ss] Támogatás hozzáadása az állapotadat-olvasóhoz és a listaállapothoz
- [SPARK-47307] [SC-170891][sql] Egy konfiguráció hozzáadása, amely lehetővé teszi a base64-sztringek opcionális feldarabolását
- [SPARK-49391] [SC-176032][ps] A dobozdiagram kiugró értékeket választ ki a kerítésektől való távolság alapján
- [SPARK-49445] [SC-175845][ui] A tooltip megjelenítésének támogatása a felhasználói felület folyamatjelző sávjában
- [SPARK-49451] [SC-175702] Duplikált kulcsok engedélyezése parse_json.
- [SPARK-49275] [SC-175701][sql] Az xpath kifejezés visszatérési típusának nullértékének javítása
- [SPARK-49021] [SC-175578][ss] Az transformWithState értékállapot-változók állapotadat-olvasóval való olvasásának támogatása
- [SPARK-49474] [BEHAVE-143][sc-169253][SC-175933][ss] A FlatMapGroupsWithState felhasználói függvény hibaosztályának besorolása
- [SPARK-49408] [SC-175932][sql] Az IndexedSeq használata a ProjectingInternalRow-ban
-
[SPARK-49509] [SC-175853][core]
Platform.allocateDirectBufferhasználataByteBuffer.allocateDirecthelyett - [SPARK-49382] [SC-175013][ps] A keretdobozok rajzának megfelelően renderelje a szórólapokat/kiugró értékeket
- [SPARK-49002] [SC-172846][sql] Az érvénytelen helyek következetes kezelése a WAREHOUSE/SCHEMA/TABLE/PARTITION/ DIRECTORY esetében
- hu-HU: [SPARK-49480] [SC-175699][core] NullPointerException hiba javítása
SparkThrowableHelper.isInternalError - [SPARK-49477] [SC-175828][python] A pandas udf érvénytelen visszatérési típusával kapcsolatos hibaüzenet javítása
- [SPARK-48693] [SC-169492][sql] Az Invoke és a StaticInvoke toString metódusainak egyszerűsítése és egységesítése
-
[SPARK-49441] [SC-175716][ml]
StringIndexertömbök rendezése végrehajtókban - [SPARK-49347] [SC-175004][r] SparkR elavulás alá kerül
- [SPARK-49357] [SC-175227][connect][PYTHON] Függőlegesen csonkítsa a mélyen beágyazott protobuf üzenetet
- [SPARK-41982] [SC-120604][sql] A sztring típusú partíciókat nem szabad numerikus típusként kezelni
- [SPARK-48776] [SC-170452][behave-72] Kijavítottuk a json, xml és csv időbélyeg-formázását
- [SPARK-49223] [SC-174800][ml] A StringIndexer.countByValue egyszerűsítése beépített függvényekkel
-
[SPARK-49016] "[SC-174663][sql] Állítsa vissza a nyers CSV-fájlokból származó lekérdezések viselkedését, amikor azok tiltottak, ha csak a sérült rekordoszlopot tartalmaznak, és nevet ad a
_LEGACY_ERROR_TEMP_1285-nek" -
[SPARK-49041] [SC-172392][python][CONNECT] Adjon megfelelő hibát, ha rossz
dropDuplicatesvan megadvasubset-hez - [SPARK-49050] [SC-175235] DeleteIfExists operátor engedélyezése virtuális oszlopcsaládokkal rendelkező TWS-ben
- [SPARK-49216] [SC-173919][core]Javítás, hogy ne naplózza az üzenetkörnyezetet kifejezetten létrehozott LogEntry esetén, amikor a strukturált naplózási konfiguráció ki van kapcsolva
-
[SPARK-49252] [SC-175596][core] Tegye függetlensé
TaskSetExcludeListésHeathTracker - [SPARK-49352] [SC-174971][sql] Kerülje az azonos kifejezés redundáns tömbátalakítását
- [SPARK-42307] [SC-173863][sql] A hiba nevének hozzárendelése _LEGACY_ERROR_TEMP_2232
-
[SPARK-49197] [SC-173732][core] Cenzúrázza
Spark Commandkimenetlaunchermodulban - [SPARK-48913] [SC-173934][sql] Az IndentingXMLStreamWriter implementálása
- [SPARK-49306] [SC-175363][python][SQL] SQL-függvény-aliasok létrehozása a "zeroifnull" és a "nullifzero" függvényhez
- [SPARK-48344] [SQL] SQL-szkriptek végrehajtása (beleértve a Spark Connectet)
- [SPARK-49402] [SC-175122][python] Binder-integráció javítása a PySpark dokumentációjában
- [SPARK-49017] [SC-174664][sql] A beszúrási utasítás több paraméter használatakor meghiúsul
- [SPARK-49318] [SC-174733][sql] Alacsony prioritású hiba megelőzése az LCA-n az ellenőrzési elemzés befejezéséig a hibaélmény javítása érdekében
-
[SPARK-49016] [SC-174663][sql] Állítsa vissza azt a viselkedést, amely szerint a nyers CSV-fájlok lekérdezései nem engedélyezettek, ha csak sérült rekordoszlopot tartalmaz, és nevet rendel hozzá
_LEGACY_ERROR_TEMP_1285 -
[SPARK-49387] [SC-175124][python] A
accuracyéspercentile_approxapprox_percentiletípustippének javítása - [SPARK-49131] [SC-174666][ss] Az TransformWithState-nek az implicit csoportosítási kulcsokat még lusta iterátorokkal is megfelelően kell beállítania
- [SPARK-49301] [SC-174795][ss] Az Apache Arrow adattömb átadása a Python munkásfolyamatnak
- [SPARK-49039] [SC-174651][ui] A jelölőnégyzet alaphelyzetbe állítása, amikor a végrehajtói metrikák betöltődnek a Szakaszok lapon
- [SPARK-48428] [SC-169806][sql]: IllegalStateException javítása a NestedColumnAliasingben
-
[SPARK-49353] [SC-174830][sql]
UTF-32kódolással/dekódolással kapcsolatos frissítési dokumentumok - [SPARK-48613] [SC-170966][sql] SPJ: Az egyik oldal automatikus átrendezésének támogatása + kevesebb illesztőkulcs, mint a partíciókulcsok
- [SPARK-47473] [SC-160450][viselkedés-127][SQL] Kijavítottuk az INFINITY időbélyegek konvertálásának helyességi problémáját.
- [SPARK-49142] [SC-173658][connect][PYTHON] Következő lépés: visszaállás a protoból sztringre a teljesítményköltség csökkentése érdekében
- [SPARK-49300] [SC-175008][core] Kijavítottuk a Hadoop-delegálási jogkivonat kiszivárgását, ha a tokenRenewalInterval nincs beállítva.
- [SPARK-49367] [SC-175012][ps] Több oszlop KDE-számításának párhuzamosítása (ábrázolási háttérrendszer)
- [SPARK-49365] [SC-175011][ps] Egyszerűsítse a hisztogram ábra gyűjtő aggregációját
- [SPARK-49372] [SC-175003][ss] Győződjön meg arról, hogy a latestSnapshot értéke üresre van állítva bezáráskor, a későbbi használat elkerülése érdekében
-
[SPARK-49341] [SC-174785] Távolítsa el
connector/dockera következő javára:Apache Spark Operator -
[SPARK-49344] [SC-174894][ps] A Pandas API támogatásának
json_normalizetámogatása a Sparkon - [SPARK-49306] [SC-174794][sql] Új "zeroifnull" és "nullifzero" SQL-függvények létrehozása
- [SPARK-48796] [SC-174668][ss] Oszlopcsalád-azonosító betöltése a RocksDBCheckpointMetadata fájlból a VCF-hez újraindításkor
- [SPARK-49342] [SC-174899][sql] A jsonFormatSchema SQL-függvény argumentumának TO_AVRO megadása nem kötelező
- [SPARK-48628] [SC-174695][core] Tevékenységcsúcs hozzáadása halommemória-metrikákhoz
- [SPARK-47407] [SC-159379][viselkedés-126][SQL] Támogatni a java.sql.Types.NULL leképezését NullType-ra
- [SPARK-48628] [SC-173407][core] Feladat csúcsértékeinek hozzáadása be-/kihalmozott memória metrikákhoz
- [SPARK-49166] [SC-173987][sql] Támogatja a OFFSET a korrelált részlekérdezésben
- [SPARK-49269] [SC-174676][sql] Az AstBuilder VALUES() listájának lelkes kiértékelése
- [SPARK-49281] [SC-174782][sql] A parquet bináris getBytes optimalizálása a getBytesUnsafe használatával a másolási költség elkerülése érdekében
- [SPARK-49113] [SC-174734] Ne érvényesítse a fordítási hibákat – csendben nyelje el a kivételt
- [SPARK-49098] [SC-173253][sql] Írási beállítások hozzáadása INSERT
- [SPARK-48638] [SC-174694][follow][CONNECT] A ExecutionInfo dokumentációjának javítása
- [SPARK-49250] [ES-1222826][sql] A beágyazott "UnresolvedWindowExpression" kifejezés hibaüzenetének javítása a CheckAnalysis során.
- [SPARK-48755] [SC-174258][ss][PYTHON] transformWithState pyspark alapimplementáció és ValueState támogatás
- [SPARK-48966] [SC-174329][sql] Javítsuk az UDTF-hívásban megjelenő hibaüzenetet az érvénytelen, megoldatlan oszlophivatkozás esetén.
- [SPARK-46590] [SC-154115][sql] A coalesce hibás működésének javítása a nem várt partíció indexek miatt
- [SPARK-49235] [SC-174159][sql] Refactor ResolveInlineTables szabály, hogy ne lépje át az egész fát
- [SPARK-49060] [SC-173107][connect] Mima-szabályok törlése SQL-Connect bináris kompatibilitási ellenőrzésekhez
- [SPARK-48762] [SC-172525][sql] A ClusterBy DataFrameWriter API bevezetése Pythonhoz
- [SPARK-49207] [SC-173852][sql] Az egy-a-többhöz esetleképezés javítása a SplitPart és a StringSplitSQL-ben
- [SPARK-49204] [SC-173850][sql] A helyettesítő párok kezelésének javítása a StringInstr és a StringLocate alkalmazásban
- [SPARK-36680] [SC-170640][sql] Támogatja a Spark SQL dinamikus táblázatbeállításainak használatát
- [SPARK-49204] [SC-173849][sql] A helyettesítő párok kezelésének javítása a SubstringIndexben
- [SPARK-49204] [SC-173848][sql] Helyettesítő párok kezelése a StringTrimben
- [SPARK-48967] [SC-173993]A SparkConfigOwnershipSuite előretekintő tesztjének javítása az OPTIMIZE_INSERT_INTO_VALUES_PARSER számára.
- [SPARK-49204] [SC-173851][sql] Helyettesítő párok kezelésének javítása a StringReplace-ben
- [SPARK-48967] [SC-173993][sql][16.x] Javítsa a teljesítményt és a memória lábnyomát a „INSERT INTO ... VALUES" Nyilatkozatok
- [SPARK-49099] Visszavon “[SC-173229][sql] CatalogManager.setCurrent…
- [SPARK-48347] [SC-173812][sql] AZ WHILE utasítás támogatása
- [SPARK-49128] [SC-173344][core] Egyéni előzménykiszolgáló felhasználói felület címének támogatása
- [SPARK-49146] [SC-173825][ss] A hozzáfűző módú streamelési lekérdezésekben hiányzó vízjelekkel kapcsolatos helyességi hibák áthelyezése hibakeretbe
- [SPARK-45787] [SC-172197][sql] Támogatás a Catalog.listColumns funkcióhoz a klaszterezett oszlopokhoz
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace tiszteletben kell tartania az egyéni munkamenet-katalógust
- [SPARK-49138] [SC-173483][sql] Több kifejezés CollationTypeCasts-jának javítása
- [SPARK-49163] [SC-173666][sql] Hibás parquet partícióadatok alapján történő táblakészítési kísérlet esetén felhasználói szinten megjelenő hibajelzést kell adnia.
-
[SPARK-49201] [SC-173793][ps][PYTHON][connect]
hist-diagram újraillesztése a Spark SQL-vel - [SPARK-49188] [SC-173682][sql] Belső hiba, amikor a concat_ws függvény sztringtömbök tömbjén van meghívva.
-
[SPARK-49137] [SC-173677][sql] Ha az
if statementlogikai feltétele érvénytelen, kivételt kell alkalmazni - [SPARK-49193] [SC-173672][sql] A RowSetUtils.toColumnBasedSet teljesítményének javítása
- [SPARK-49078] [SC-173078][sql] Az oszlopok megjelenítő szintaxisának támogatása a v2-táblában
- [SPARK-49141] [SC-173388][sql] A variáns megjelölése hive inkompatibilis adattípusként
-
[SPARK-49059] [Cherry-Pick][15.x][SC-172528][connect]
SessionHolder.forTesting(...)áthelyezése a tesztcsomagba - [SPARK-49111] [SC-173661][sql] Áthelyezés aProjectAndFilterrel a DataSourceV2Strategy társobjektumára
-
[SPARK-49185] [SC-173688][ps][PYTHON][connect] Reimplementálja a
kdeábrát a Spark SQL használatával -
[SPARK-49178] [SC-173673][sql] Optimalizálja a
Row#getSeqteljesítményét a Spark 3.5 Scala 2.12-vel való használatakor - [SPARK-49093] [SC-172958][sql] GROUP BY MapType komplex típusba van ágyazva
- [SPARK-49142] [SC-173469][connect][PYTHON] Alacsonyabb Spark Connect ügyfélnapló-szint hibakereséshez
- [SPARK-48761] [SC-172048][sql] A ClusterBy DataFrameWriter API bemutatása Scalához
- [SPARK-48346] [SC-173083][sql] IF ELSE utasítások támogatása SQL-szkriptekben
- [SPARK-48338] [SC-173112][sql] Az elemző/értelmező által kidobott kivételek javítása
- [SPARK-48658] [SC-169474][sql] A kódolási/dekódolási függvények a nem leképezhető karakterek esetén a kódolási hibákat jelentik a mojibake helyett
- [SPARK-49071] [SC-172954][sql] ArraySortLike tulajdonság eltávolítása
-
[SPARK-49107] "Revert "[SC-173103][sql]
ROUTINE_ALREADY_EXISTStámogatja a Rutintípust"" - [SPARK-49070] [SC-172907][ss][SQL] A TransformWithStateExec.initialState helytelenül van átírva érvénytelen lekérdezési terv létrehozásához
- [SPARK-49114] [SC-173217] Az alkategorizálás nem tudja betölteni az állapottároló hibáit
-
[SPARK-49107] Fordítsd vissza “[SC-173103][sql]
ROUTINE_ALREADY_EXISTStámogatja a RoutineType-ot” - [SPARK-49048] [SC-173223][ss] Támogatás hozzáadása a megfelelő operátor metaadatainak olvasásához adott kötegazonosítónál
- [SPARK-49094] [SC-173049][sql] Kijavítottuk az ignoreCorruptFiles nem működőképes állapotát a Hive ORC megvalósításában a mergeSchema kikapcsolásával.
-
[SPARK-49108] [SC-173102][példa]
submit_pi.shREST API-példa hozzáadása -
[SPARK-49107] [SC-173103][sql]
ROUTINE_ALREADY_EXISTStámogatja a Rutintípust - [SPARK-48997] [SC-172484][ss] Egyéni kirakódások implementálása a karbantartási szálkészletben bekövetkező szálhibák esetén
- [SPARK-49063] [SC-173094][sql] Javítás a 'Between' függvény ScalarSubqueries használatával történő alkalmazásában.
- [SPARK-45891] [SC-172305][sql][PYTHON][variant] Az intervallumtípusok támogatása a Variant Specben
-
[SPARK-49074] [BEHAVE-110][sc-172815][SQL] A változat javítása
df.cache() - [SPARK-49003] [SC-172613][sql] Kijavítottuk az értelmezett kód útvonalazásának kivonatolását, hogy figyelembe vegye a rendezést
- [SPARK-48740] [SC-172430][sql] A hiányzó ablak specifikációs hibájának korai észlelése
- [SPARK-48999] [SC-172245][ss] Divide PythonStreamingDataSourceSimpleSuite
- [SPARK-49031] [SC-172602] Az érvényesítés implementálása a TransformWithStateExec operátorhoz az OperatorStateMetadataV2 használatával
- [SPARK-49053] [SC-172494][python][ML] A modell mentési/betöltési segédfüggvényei fogadják el a Spark-munkamenetet
- [SPARK-49032] [Backport][15.x][SS] Sémaútvonal hozzáadása metaadattábla-bejegyzésben, a várt verzió ellenőrzése és operátori metaadatokkal kapcsolatos teszt hozzáadása a v2 operátori metaadat-formátumhoz
-
[SPARK-49034] [SC-172306][core] Támogatja a kiszolgálóoldali
sparkPropertiescseréjét a REST Submission API-ban - [SPARK-48931] [SC-171895][ss] A cloud store list API költségeinek csökkentése az állapottár karbantartási feladatához
- [SPARK-48849] [SC-172068][ss]Hozzon létre OperatorStateMetadataV2-t a TransformWithStateExec operátorhoz
- [SPARK-49013] [SC-172322] Kulcsának módosítása az összerendelési táblázatban a Térkép- és tömbtípusok összetérképezéséhez scalában.
-
[SPARK-48414] [SC-171884][python] Python kódjában található kritikus hiba javítása
fromJson - [SPARK-48910] [SC-171001][sql] HashSet/HashMap használatával elkerülheti a lineáris keresést a PreprocessTableCreation alkalmazásban
-
[SPARK-49007] [SC-172204][core] A
MasterPagejavítása egyéni cím támogatásához - [SPARK-49009] [SC-172263][sql][PYTHON] Az oszlop API-k és függvények Enum típusokat fogadjanak el.
-
[SPARK-49033] [SC-172303][core] A kiszolgálóoldali
environmentVariablescseréje a REST Submission API-ban -
[SPARK-48363] [SC-166470][sql] Néhány redundáns kód törlése
from_xml - [SPARK-46743] [SC-170867][sql][BEHAVE-84] Számolóhiba, miután a ScalarSubquery összevonásra kerül, ha üres relációt tartalmaz
-
[SPARK-49040] [SC-172351][sql] A dokumentum
sql-ref-syntax-aux-exec-imm.mdjavítása - [SPARK-48998] [SC-172212][ml] Metaalgoritmusok a SparkSession használatával mentik/töltik be a modellt
-
[SPARK-48959] [SC-171708][sql]
NoSuchNamespaceExceptionbővítse kiNoSuchDatabaseExceptiona kivételkezelés visszaállításához - [SPARK-48996] [SC-172130][sql][PYTHON] Engedélyezze az oszlop ,, valamint vagy literáljainak a használatát
- [SPARK-48990] [SC-171936] #101759 nyomon követése – tesztjavítás
- [SPARK-48338] [SC-171912][sql] Változódeklarációk ellenőrzése
- [SPARK-48990] [SC-171936][sql] Egyesített változóhoz kapcsolódó SQL-szintaxis kulcsszavak
-
[SPARK-48988] [SC-171915][ml] Tegye a
DefaultParamsReader/Writer-t alkalmassá a metaadatok kezelésére a Spark-munkamenet segítségével -
[SPARK-48974] [SC-171978][sql][SS][ml][MLLIB]
SparkSession.implicitshasználataSQLContext.implicitshelyett - [SPARK-48760] [SC-170870][sql] CatalogV2Util.applyClusterByChanges javítása
- [SPARK-48928] [SC-171956] Naplóriasztás a .unpersist() helyileg ellenőrzőponttal beállított RDD-k hívásához
- [SPARK-48760] [SC-170139][sql] Bevezetés ALTER TABLE ... CLUSTER BY SQL-szintaxis a fürtöző oszlopok módosításához
- [SPARK-48844] "[SC-170669][sql] INVALID_EMPTY_LOCATION használata az UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY helyett, amikor az elérési út üres"
-
[SPARK-48833] [SC-171914][sql][VARIANT] Támogatási változat a
InMemoryTableScan -
[SPARK-48975] [SC-171894][protobuf] Távolítsa el a szükségtelen
ScalaReflectionLockdefiníciót aprotobuf - [SPARK-48970] [SC-171800][python][ML] Kerülje a SparkSession.getActiveSession használatát a Spark ML-olvasóban/íróban
- [SPARK-48844] [SC-170669][sql] INVALID_EMPTY_LOCATION használata UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY helyett, ha az elérési út üres
- [SPARK-48714] [SC-170136] Sikertelen df.mergeInto-tesztek javítása a PySparkban és az UC-ban
- [SPARK-48957] [SC-171797][ss] A hdfs és a rocksdb szolgáltató állapottároló-terhelésének alosztályozott hibaosztályát adja vissza
- [SPARK-48891] [Backport][15x][SC-171677][ss] Átalakítás a StateSchemaCompatibilityChecker egységesítése érdekében az összes állapotsémaformátumban
- [SPARK-48972] [SC-171795][python] A függvények konstans sztringkezelésének egyesítése
- [SPARK-48388] [SC-171337][sql] Az SQL-szkriptek SET utasítási viselkedésének javítása
- [SPARK-48743] [SC-170552][sql][SS] Az MergingSessionIterator-nak jobban kell kezelnie, amikor a getStruct null értéket ad vissza.
- [SPARK-48623] [15.x][sc-171322][CORE] FileAppender-naplók áttelepítése strukturált naplózásra
- [SPARK-36680] [DBRRM-1123] "[SC-170640][sql] Támogatja a Spark SQL dinamikus táblázatbeállításainak használatát"
-
[SPARK-48841] [SC-170868][viselkedés-83][SQL] A
collationName-ben asql()-t és aCollate-at belefoglalva - [SPARK-48941] [SC-171703][python][ML] Cserélje le az RDD olvasási/ írási API-hívását dataframe olvasási/írási API-ra
- [SPARK-48938] [SC-171577][python] A Python UDTF-ek regisztrálásakor megjelenő hibaüzenetek javítása
- [SPARK-48350] [SC-171040][sql] Az SQL-szkriptek egyéni kivételeinek bevezetése
-
[SPARK-48907] [SC-171158][sql] A
explicitTypesértékének javítása aCOLLATION_MISMATCH.EXPLICIT-ben -
[SPARK-48945] [SC-171658][python] A regex függvények egyszerűsítése
lit - [SPARK-48944] [SC-171576][connect] A JSON formátumú sémakezelés egységesítése a Connect Serverben
- [SPARK-48836] [SC-171569] SQL-séma integrálása állapotsémával/metaadatokkal
- [SPARK-48946] [SC-171504][sql] NPE redact metódusban null munkamenet esetén
- [SPARK-48921] [SC-171412][sql] A ScalaUDF-kódolókat a mergeInto esetében fel kell oldani
- [SPARK-45155] [SC-171048][connect] API Docs hozzáadása Spark Connect JVM-hez/Scala-ügyfélhez
-
[SPARK-48900] [SC-171319] Mező hozzáadása
reason,cancelJobGroupéscancelJobsWithTag - [SPARK-48865] [SC-171154][sql] Try_url_decode függvény hozzáadása
-
[SPARK-48851] [SC-170767][sql] Módosítsa a
SCHEMA_NOT_FOUNDértékétnamespaceértékérőlcatalog.namespace -
[SPARK-48510] [SC-170893][2/2] Az UDAF
toColumnAPI támogatása a Spark Connectben -
[SPARK-45190] [SC-171055][spark-48897][PYTHON][connect] A StructType séma támogatásának engedélyezése
from_xml -
[SPARK-48930] [SC-171304][core] Redact
awsAccessKeyIdaaccesskeyminta beillesztésével - [SPARK-48909] [SC-171080][ml][MLLIB] SparkSession-t használ a SparkContexten keresztül metaadatok írásakor
- [SPARK-48883] [SC-171133][ml][R] Az RDD olvasási/írási API-hívásának cseréje Dataframe olvasási/írási API-ra
-
[SPARK-48924] [SC-171313][ps] Pandas-szerű
make_intervalsegédfüggvény hozzáadása -
[SPARK-48884] [SC-171051][python] A nem használt segédfüggvény eltávolítása
PythonSQLUtils.makeInterval - [SPARK-48817] [SC-170636][sql] Több parancs gyors egymásutánban történő egyesített végrehajtása
- [SPARK-48896] [SC-171079][ml][MLLIB] A metaadatok írásakor kerülje az újraparticionálást
-
[SPARK-48892] [SC-171127][ml] A soronkénti paraméterek olvasásának elkerülése
Tokenizer -
[SPARK-48927] [SC-171227][core] A gyorsítótárazott RDD-k számának megjelenítése
StoragePage - [SPARK-48886] [15.x][backport][SC-171039][ss] Verzióinformációk hozzáadása a v2 változásnaplóhoz a könnyebb fejleszthetőség érdekében
- [SPARK-48903] [SC-171136][ss] Állítsa be a RocksDB utolsó pillanatkép-verzióját megfelelően távoli terhelésen
- [SPARK-48742] [SC-170538][ss] Virtuális Oszlopcsalád a RocksDB-hez
- [SPARK-48726] [15.x][sc-170753][SS] Hozza létre a StateSchemaV3 fájlformátumot, és írja ki a TransformWithStateExec operátor számára
- [SPARK-48794] [SC-170882][connect][15.x] df.mergeInto támogatás a Spark Connecthez (Scala és Python)
-
[SPARK-48714] [SC-170136][python] Implementálás
DataFrame.mergeIntoa PySparkban - [SPARK-48772] [SC-170642][ss][SQL] Állapotadat-forrás Változás-hírcsatorna Olvasó Mód
- [SPARK-48666] [SC-170887][sql] Ne küldjön le szűrőt, ha PythonUDF-eket tartalmaz
- [SPARK-48845] [SC-170889][sql] GenericUDF elkapja a kivételeket a gyerekektől
- [SPARK-48880] [SC-170974][core] Kerülje a NullPointerException elvetését, ha az illesztőprogram beépülő modul nem inicializálható
- [SPARK-48888] [Backport][15x][SC-170973][ss] Távolítsa el a pillanatkép létrehozását a változásnapló műveletek mérete alapján
- [SPARK-48871] [SC-170876] INVALID_NON_DETERMINISTIC_EXPRESSIONS validációjának javítása a következőben:
- [SPARK-48883] [SC-170894][ml][R] Cserélje le az RDD olvasási/ írási API-hívását dataframe olvasási/írási API-ra
- [SPARK-36680] [SC-170640][sql] Támogatja a Spark SQL dinamikus táblázatbeállításainak használatát
- [SPARK-48804] [SC-170558][sql] classIsLoadable hozzáadása & OutputCommitter.isAssignableFrom ellenőrzése a kimeneti rögzítő osztály konfigurációihoz
- [SPARK-46738] [SC-170791][python] Dokumentumtesztek egy csoportjának újraküldése
-
[SPARK-48858] [SC-170756][python] Az elavult
setDaemonThreadmetódushívás eltávolítása alog_communication.py-ból. - [SPARK-48639] [SC-169801][connect][PYTHON] Forrás hozzáadása a RelationCommonhoz
- [SPARK-48863] [SC-170770][es-1133940][SQL] Javítás a ClassCastException hibára a JSON elemzésekor, amikor a „spark.sql.json.enablePartialResults” be van kapcsolva.
- [SPARK-48343] [SC-170450][sql] Az SQL Scripting-értelmező bemutatása
- [SPARK-48529] [SC-170755][sql] A címkék bemutatása az SQL Scriptingben
- [SPARK-45292] "Visszavonás: [SC-151609][sql][HIVE] Guava eltávolítása a megosztott osztályokból az IsolatedClientLoaderből"
- [SPARK-48037] [SC-165330][core][3.5] A SortShuffleWriter javítása nem tartalmaz az írással kapcsolatos metrikákat, amelyek esetleg pontatlan adatokat eredményeznek
-
[SPARK-48720] [SC-170551][sql] A parancs
ALTER TABLE ... UNSET TBLPROPERTIES ...igazítása az 1. és a 2. verzióban - [SPARK-48485] [SC-167825][connect][SS] Támogatás az interruptTag és interruptAll használatára a streamelési lekérdezésekben.
- [SPARK-45292] [SC-151609][sql][HIVE] Guava eltávolítása a megosztott osztályokból az IsolatedClientLoaderből
- [SPARK-48668] [SC-169815][sql] Az ALTER NAMESPACE támogatása ... NEM BEÁLLÍTOTT TULAJDONSÁGOK v2
- [SPARK-47914] [SC-165313][sql] Ne jelenítse meg a felosztási paramétert a tartományban
- [SPARK-48807] [SC-170643][sql] Bináris támogatás CSV-adatforráshoz
- [SPARK-48220] [SC-167592][python][15.X] A PyArrow-tábla átadásának engedélyezéseDataFrame() létrehozásához
- [SPARK-48545] [SC-169543][sql] To_avro és from_avro SQL-függvények létrehozása a DataFrame-ekvivalenseknek megfelelően
- [SPARK-47577] [SC-168875][spark-47579] A naplókulcs TASK_ID félrevezető használatának javítása
Databricks ODBC/JDBC meghajtó támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 24.04.1 LTS
- Java: Zulu17.50+19-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
Telepített Python-kódtárak
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| széljegyzetes típusok | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| automatikus parancs | 2.2.2 | azure-core | 1.31.0 | Azure-tároló-blob | 12.23.0 |
| Azure-tároló-fájl-adattó (Azure Storage File Data Lake) | 12.17.0 | backports.tarfile | 1.2.0 | fekete | 24.4.2 |
| villogó | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| Gyorstár-eszközök | 5.3.3 | tanúsítvány | 2024.6.2. | cffi | 1.16.0 |
| Chardet | 4.0.0 | karakterkészlet-normalizáló (charset-normalizer) | 2.0.4 | kattintás | 8.1.7 |
| Cloudpickle | 2.2.1 | kommunikáció | 0.2.1 | ContourPy | 1.2.0 |
| kriptográfia | 42.0.5 | biciklista | 0.11.0 | Cython | 3.0.11 |
| databricks SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy hibakereső eszköz | 1.6.7 |
| dekorátor | 5.1.1 | Elavult | 1.2.14 | distlib | 0.3.8 |
| docstring Markdown-formátummá alakítása | 0.11 | belépési pontok | 0,4 | Végrehajtó | 0.8.3 |
| aspektusok áttekintése | 1.1.1 | fájlzárolás | 3.15.4 | betűtípusok | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| Google-autentikáció | 2.35.0 | google-cloud-core (Google felhő mag) | 2.4.1 | Google felhőtárhely | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media (Google újraindítható média) | 2.7.2 | googleapis-közös-protokollok | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| Idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| ragoz | 7.3.1 | ipyflow-core | 0.0.198 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets (interaktív widgetek Pythonhoz) | 7.7.2 |
| izodátum | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_kliens | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy kiterjesztések | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-szemantikai-konvenciók | 0,48b0 |
| csomagolás | 24.1 | Pandák | 1.5.3 | parso | 0.8.3 |
| útvonal specifikáció (pathspec) | 0.10.3 | bűnbak | 0.5.6 | pexpect | 4.8.0 |
| párna | 10.3.0 | pipa | 24,2 | Platformdirs | 3.10.0 |
| ábrázolás | 5.22.0 | csatlakozós | 1.0.0 | prompt-toolkit: parancssori eszközkészlet | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.52 | pycparser (C és C++ fájlok feldolgozására szolgáló parser) | 2.21 | pydantic (egy Python könyvtár) | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes (egy program vagy eszköz neve) | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc (Python ODBC interfész) | 5.0.1 |
| pyparsing (egy Python könyvtár a szövegelemzéshez) | 3.0.9 | pyright | 1.1.294 | python-dateutil | Szoftver verzió: 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytool konfiguráció | 1.2.6 |
| pytz (egy Python könyvtár az időzóna számításokhoz) | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| Kérelmek | 2.32.2 | kötél | 1.12.0 | Rsa | 4.9 |
| s3transfer | 0.10.2 | scikit-learn (egy Python gépi tanulási könyvtár) | 1.4.2 | scipy (tudományos és műszaki számítási Python könyvtár) | 1.13.1 |
| tengerben született | 0.13.2 | setuptools | 74.0.0 | hat | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| halmaz adatok | 0.2.0 | statsmodels - statisztikai szoftvercsomag | 0.14.2 | Kitartás | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornádó | 6.4.1 | árulók | 5.14.3 | típusőrző | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | típusok-kérelmek | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| Hat típus | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions (gépelési kiterjesztések) | 4.11.0 |
| ujson (JSON-kezelő könyvtár a Pythonban) | 5.10.0 | felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| Mi a javítás? | 1.0.2 | wheel | 0.43.0 | becsomagolva | 1.14.1 |
| yapf | 0.33.0 | cipzár | 3.17.0 |
Telepített R-kódtárak
Az R csomagok a Posit Package Manager 2024.08.04-i CRAN-pillanatképéből lettek telepítve: https://packagemanager.posit.co/cran/2024-08-04/.
| Könyvtár | verzió | Könyvtár | verzió | Könyvtár | verzió |
|---|---|---|---|---|---|
| nyíl | 16.1.0 | jelszókérés | 1.2.0 | Meggyőződj arról, hogy | 0.2.1 |
| háttérportolások | 1.5.0 | alapkép | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | egy kicsit | 4.0.5 | bit 64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | boot - rendszerindítás | 1.3-30 |
| sört főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.6 |
| bslib | 0.8.0 | gyorsítótár | 1.1.0 | hívásindító | 3.7.6 |
| kalapjel | 6.0-94 | cellranger | 1.1.0 | kronométer | 2.3-61 |
| osztály | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
| óra | 0.7.1 | fürt | 2.1.6 | kódolási eszközök | 0.2-20 |
| színterület | 2.1-1 | commonmark | 1.9.1 | fordítóprogram | 4.4.0 |
| konfig | 0.3.2 | ellentmondásos | 1.2.0 | cpp11 | 0.4.7 |
| zsírkréta | 1.5.3 | azonosító adatok | 2.0.1 | göndörít | 5.2.1 |
| adat.táblázat | 1.15.4 | adatkészletek | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Leírás | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | kivonat | 0.6.36 |
| lefelé irányított világítású | 0.4.4 | dplyr (adatmanipulációs csomag az R programozási nyelvhez) | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | három pont | 0.3.2 | kiértékel | 0.24.0 |
| rajongók | 1.0.6 | színek | 2.1.2 | gyorstérkép | 1.2.0 |
| fontawesome | 0.5.2 | elveszettek | 1.0.0 | foreach | 1.5.2 |
| külföldi | 0.8-86 | kovácsol | 0.2.0 | Fs | 1.6.4 |
| jövő | 1.34.0 | jövő.alkalmaz | 1.11.2 | gargarizál | 1.5.2 |
| általánosítás | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globálisok | 0.16.3 | ragasztó | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower-hegység | 1.0.1 |
| grafika | 4.4.0 | grDevices | 4.4.0 | rács | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0,7 | GT | 0.11.0 |
| gtable | 0.3.5 | védősisak | 1.4.0 | kikötő | 2.5.4 |
| magasabb | 0.11 | HMS | 1.1.3 | HTML-eszközök | 0.5.8.1 |
| HTML-widgetek | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Azonosítók | 1.0.1 | ini | 0.3.1 |
| iPred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | címkézés | 0.4.3 |
| később | 1.3.2 | rácsszerkezet | 0.22-5 | láva | 1.8.0 |
| életciklus | 1.0.4 | hallgatás | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | Tömeg | 7.3-60.0.1 |
| Mátrix | 1.6-5 | memorizálás | 2.0.1 | módszerek | 4.4.0 |
| mgcv | 1.9-1 | pantomimázás | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| „numDeriv” | 2016. augusztus - 1.1 | openssl (nyílt forráskódú titkosító szoftver) | 2.2.0 | párhuzamos | 4.4.0 |
| párhuzamosan | 1.38.0 | pillér | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | csomag betöltése | 1.4.0 |
| plogr | 0.2.0 | lejátszó | 1.8.9 | dicséret | 1.0.0 |
| prettyunits | 1.2.0 | Proc | 1.18.5 | Processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | haladás | 1.2.3 |
| progressr | 0.14.0 | ígéretek | 1.3.0 | Próto | 1.0.0 |
| közvetít | 0.4-27 | P.S. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | véletlen erdő (randomForest) | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer (egy szoftvercsomag neve) | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reakcióképes | 0.4.4 |
| reactR | 0.6.0 | Readr | 2.1.5 | readxl (Excel fájlokat olvasó programcsomag) | 1.4.3 |
| Receptek | 1.1.0 | Visszavágó | 2.0.0 | visszavágó2 | 2.1.2 |
| Távvezérlők | 2.5.0 | megismételhető példa | 2.1.1 | újraformázás2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1,8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| változatok | 2.1.2 | Szüret | 1.0.4 | Sass | 0.4.9 |
| mérlegek | 1.3.0 | szelekciós eszköz | 0.4-2 | munkamenet-információk | 1.2.2 |
| alakzat | 1.4.6.1 | Fényes | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr (R csomag az adatkutatáshoz és elemzéshez) | 1.8.6 | SparkR | 3.5.0 | térbeli | 7.3-17 |
| splinek | 4.4.0 | sqldf | 0.4-1 | NÉGYZET | 2021.1 |
| statisztika | 4.4.0 | statisztikák4 | 4.4.0 | string | 1.8.4 |
| sztring | 1.5.1 | túlélés | 3.6-4 | magabiztosság | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | Tcl/Tk programozási nyelv és eszközkészlet. | 4.4.0 |
| testthat | 3.2.1.1 | szövegformázás | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| időváltás | 0.3.0 | idődátum | 4032.109 | tinytex | 0,52 |
| eszközök | 4.4.0 | tzdb | 0.4.0 | URL-ellenőrző | 1.0.1 |
| ezt használd | 3.0.0 | utf8 | 1.2.4 | segédprogramok | 4.4.0 |
| univerzálisan egyedi azonosító (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | bruum | 1.6.5 | Waldo | 0.5.2 |
| szőrszál | 0.4.1 | valamivel | 3.0.1 | xfun | 0,46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| YAML (adat-szerializációs formátum) | 2.3.10 | zeallot | 0.1.0 | fütyülés | 2.3.1 |
Telepített Java- és Scala-könyvtárak (Scala 2.12-klaszterverzió)
| Csoportazonosító | A tárgy azonosítója | verzió |
|---|---|---|
| ANTLR (Egy másik eszköz a nyelvi felismeréshez) | ANTLR (Egy másik eszköz a nyelvi felismeréshez) | 2.7.7 |
| com.amazonaws | Amazon Kinesis kliens | 1.12.0 |
| com.amazonaws | AWS Java SDK - Automatikus Skálázás | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity (Java SDK az Amazon Cognito Identitás kezeléséhez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (AWS Java SDK konfiguráció) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK az Elastic Beanstalk számára) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK az elasztikus terheléselosztáshoz) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS Java SDK importexport modul | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms (Amazon Web Services Java SDK KMS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-gépi tanulás | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses (AWS Java SDK az Amazon SES-hez) | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Támogatás | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf könyvtárak | 1.11.22 |
| com.amazonaws | aws-java-sdk-munkaterületek | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | adatfolyam | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java (Databricks Java SDK) | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-árnyékolt | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | osztálytárs | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotációk | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (adatformátum CBOR) | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson adattípus - Joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.koffein | koffein | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1 |
| com.github.fommil.netlib | Java natív hivatkozás | 1.1-őslakosok |
| com.github.fommil.netlib | natív rendszer-java | 1.1 |
| com.github.fommil.netlib | natív rendszer-java | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-őslakosok |
| com.github.fommil.netlib | netlib-natív_rendszer-linux-x86_64 | 1.1-őslakosok |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Csellengő | 1.9.0 |
| com.google.errorprone | hibára hajlamos annotációk | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guáva | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profilkészítő | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.KIADÁS |
| com.lihaoyi | forráskód_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (kompressziós algoritmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl (JAXB implementáció) | 2.2.11 |
| com.tdunning | JSON formátum | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lencsék_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-elemzők | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| „commons-codec” | „commons-codec” | 1.16.0 |
| commons-collections (közös gyűjtemények könyvtár) | commons-collections (közös gyűjtemények könyvtár) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-fájlfeltöltés | Commons-fájlfeltöltés | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| közös naplózás | közös naplózás | 1.1.3 |
| közös medence | közös medence | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | légkompresszor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.0 |
| io.dropwizard.metrics | metrikák annotációja | 4.2.19 |
| io.dropwizard.metrics | metrikai magrész | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | mutatók-egészségügyi ellenőrzések | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.19 |
| io.dropwizard.metrics | metrics-json (metrikák JSON formátumban) | 4.2.19 |
| io.dropwizard.metrics | JVM-metrikák | 4.2.19 |
| io.dropwizard.metrics | Metrikai szervletek | 4.2.19 |
| io.netty | netty-all csomag | 4.1.108.Final |
| io.netty | Netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | Netty HTTP kodek | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-zokni | 4.1.108.Final |
| io.netty | netty-közös | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-osztályok | 2.0.61.Final |
| io.netty | Netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | Netty szállítási osztályok - kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (Unix-alapú közös natív szállítás) | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | egyszerűkliens_általános | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway (egyszerű kliens tolókapu) | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | gyűjtő | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktiválás | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | savanyított zöldség | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv (egy CSV-fájlokat kezelő könyvtár) | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-szoftverfejlesztőkészlet (SDK) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | TávoliTea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | karakterláncsablon | 3.2.1 |
| org.apache.ant | hangya | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | nyíl alakú formátum | 15.0.0 |
| org.apache.arrow | nyíl memóriaegység | 15.0.0 |
| org.apache.arrow | Arrow-Memória-Netty | 15.0.0 |
| org.apache.arrow | irányvektor | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-kollekciók4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (közös szöveg) | 1.10.0 |
| org.apache.curator | kurátor-ügyfél | 2.13.0 |
| org.apache.curator | kurátor-keretrendszer | 2.13.0 |
| org.apache.curator | receptek kurátortól | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | adatvázlatok-memória | 2.0.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop kliens futásideje | 3.3.6 |
| org.apache.hive | hive-beeline (eszköz) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-kliens | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (sorozatok és deserializáció) | 2.3.9 |
| org.apache.hive | hive-shims (hive kiegészítő modulok) | 2.3.9 |
| org.apache.hive | hive-storage-api (hive tárolási API) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler (méhkas-behúzási-ütemező) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | borostyánkő | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-elrendezés-sablon-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-illesztékek | 1.9.2 |
| org.apache.thrift | libfb303 | 0,9,3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | célközönség megjegyzései | 0.13.0 |
| org.apache.zookeeper | állatkerti gondozó | 3.9.2 |
| org.apache.zookeeper | zookeeper-juta | 3.9.2 |
| org.checkerframework | ellenőr-képzettség | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | Jackson-térképező-ASL | 1.9.13 |
| org.codehaus.janino | közösségi fordítóprogram | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-kontinuáció | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http (egy Java HTTP szerver implementáció) | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (egy biztonsági modul a Jetty kiszolgálóhoz) | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty webszerver | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty webalkalmazás | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-kommon | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-szerver | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi erőforrás-kereső | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-újracsomagolt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (Jersey konténer szervlet) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-ügyfél | 2.40 |
| org.glassfish.jersey.core | jersey-közös | 2.40 |
| org.glassfish.jersey.core | jersey-szerver | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator (a Hibernate hitelesítő) | 6.1.7.Végleges |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (naplózó rendszer) | 3.3.2.Végleges verzió |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Széljegyzetek | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Hézagolók | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | teszt-interfész | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest tesztelési keretrendszerrel kompatibilis | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | három-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl (nyílt forráskódú szoftver) | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
| Stax | stax-api | 1.0.1 |