A Databricks Runtime karbantartási frissítései (archiválva)
Ez az archivált lap a már nem támogatott Databricks Runtime-kiadásokhoz kiadott karbantartási frissítéseket sorolja fel. Ha karbantartási frissítést szeretne hozzáadni egy meglévő fürthöz, indítsa újra a fürtöt.
Fontos
Ez a dokumentáció ki lett állítva, és lehet, hogy nem frissül. Az ebben a tartalomban említett termékek, szolgáltatások vagy technológiák támogatásának megszűnése véget ért. Lásd a Databricks Runtime kibocsátási megjegyzéseinek verzióit és kompatibilitását.
Feljegyzés
Ez a cikk az Azure Databricks által nem használt kifejezésre , az engedélyezési listára mutató hivatkozásokat tartalmaz. Ha a kifejezés el lesz távolítva a szoftverből, a cikkből is eltávolítjuk.
Databricks Runtime-kiadások
Karbantartási frissítések kiadás szerint:
- Databricks Runtime 15.0
- Databricks Runtime 14.0
- Databricks Runtime 13.1
- Databricks Runtime 12.2 LTS
- Databricks Runtime 11.3 LTS
- Databricks Runtime 10.4 LTS
- Databricks Runtime 9.1 LTS
- Databricks Runtime 13.0 (EoS)
- Databricks Runtime 12.1 (EoS)
- Databricks Runtime 12.0 (EoS)
- Databricks Runtime 11.2 (EoS)
- Databricks Runtime 11.1 (EoS)
- Databricks Runtime 11.0 (EoS)
- Databricks Runtime 10.5 (EoS)
- Databricks Runtime 10.3 (EoS)
- Databricks Runtime 10.2 (EoS)
- Databricks Runtime 10.1 (EoS)
- Databricks Runtime 10.0 (EoS)
- Databricks Runtime 9.0 (EoS)
- Databricks Runtime 8.4 (EoS)
- Databricks Runtime 8.3 (EoS)
- Databricks Runtime 8.2 (EoS)
- Databricks Runtime 8.1 (EoS)
- Databricks Runtime 8.0 (EoS)
- Databricks Runtime 7.6 (EoS)
- Databricks Runtime 7.5 (EoS)
- Databricks Runtime 7.3 LTS (EoS)
- A Databricks Runtime 6.4 kiterjesztett támogatása (EoS)
- Databricks Runtime 5.5 LTS (EoS)
- A Databricks Light 2.4 kiterjesztett támogatása
- Databricks Runtime 7.4 (EoS)
- Databricks Runtime 7.2 (EoS)
- Databricks Runtime 7.1 (EoS)
- Databricks Runtime 7.0 (EoS)
- Databricks Runtime 6.6 (EoS)
- Databricks Runtime 6.5 (EoS)
- Databricks Runtime 6.3 (EoS)
- Databricks Runtime 6.2 (EoS)
- Databricks Runtime 6.1 (EoS)
- Databricks Runtime 6.0 (EoS)
- Databricks Runtime 5.4 ML (EoS)
- Databricks Runtime 5.4 (EoS)
- Databricks Runtime 5.3 (EoS)
- Databricks Runtime 5.2 (EoS)
- Databricks Runtime 5.1 (EoS)
- Databricks Runtime 5.0 (EoS)
- Databricks Runtime 4.3 (EoS)
- Databricks Runtime 4.2 (EoS)
- Databricks Runtime 4.1 ML (EoS)
- Databricks Runtime 4.1 (EoS)
- Databricks Runtime 4.0 (EoS)
- Databricks Runtime 3.5 LTS (EoS)
- Databricks Runtime 3.4 (EoS)
A Databricks Runtime támogatott verzióinak karbantartási frissítéseit a Databricks Runtime karbantartási frissítései között találja.
Databricks Runtime 15.0
Lásd: Databricks Runtime 15.0 (EoS).
- 2024. május 30.
- A (viselkedésváltozás)
dbutils.widgets.getAll()
mostantól támogatott a jegyzetfüzet összes widgetértékének lekéréséhez.
- A (viselkedésváltozás)
- 2024. április 25.
- [SPARK-47786] A SELECT DISTINCT () nem lehet SELECT DISTINCT struct() (korábbi viselkedésre való visszaállítás)
- [SPARK-47802][SQL] Vissza () a jelentés struct() vissza a jelentés *
- [SPARK-47509][SQL] Részlekérdezés-kifejezések blokkolása a lambda és a magasabbrendű függvényekben
- [SPARK-47722] Várjon, amíg a RocksDB háttérmunka befejeződik, mielőtt bezárul
- [SPARK-47081][CONNECT] [KÖVETÉS] A folyamatkezelő használhatóságának javítása
- [SPARK-47694][CONNECT] Az üzenet maximális méretének konfigurálása az ügyféloldalon
- [SPARK-47669][SQL] [CONNECT] [PYTHON] Hozzáad
Column.try_cast
- [SPARK-47664][PYTHON] [CONNECT] [Cherry-pick-15.0] Ellenőrizze az oszlop nevét gyorsítótárazott sémával
- [SPARK-47818][CONNECT] [Cherry-pick-15.0] Tervgyorsítótár bevezetése a SparkConnectPlannerben az elemzési kérések teljesítményének javítása érdekében
- [SPARK-47704][SQL] A JSON-elemzés a "java.lang.ClassCastException" hibával meghiúsul, ha a spark.sql.json.enablePartialResults engedélyezve van
- [SPARK-47755][CONNECT] A kimutatásnak sikertelennek kell lennie, ha a különböző értékek száma túl nagy
- [SPARK-47713][SQL] [CONNECT] Öncsatlakozásos hiba kijavítása
- [SPARK-47812][CONNECT] A SparkSession forEachBatch-feldolgozó támogatásának támogatása
- [SPARK-47828][CONNECT] [PYTHON]
DataFrameWriterV2.overwrite
érvénytelen csomaggal meghiúsul - [SPARK-47862][PYTHON] [CONNECT] Proto-fájlok létrehozásának javítása
- [SPARK-47800][SQL] Új azonosító metódus létrehozása a tableIdentifier-átalakításhoz
- Az operációs rendszer biztonsági frissítései.
- 2024. április 3.
- (Viselkedésváltozás) A számítási típusok konzisztens viselkedésének biztosítása érdekében a megosztott fürtökön lévő PySpark UDF-ek mostantól megfelelnek az elkülönítés nélküli és a hozzárendelt fürtök UDF-jeinek viselkedésének. Ez a frissítés a következő módosításokat tartalmazza, amelyek megszakíthatják a meglévő kódot:
- A visszatérési típussal rendelkező
string
UDF-ek többé nem konvertálják implicit módon a nem-értékeketstring
értékekkéstring
. Korábban a visszatérésistr
típusú UDF-ek a visszaadott érték tényleges adattípusától függetlenül függvényselstr()
burkolták a visszatérési értéket. - A visszatérési típusokkal rendelkező
timestamp
UDF-ek többé nem alkalmazzák implicit módon a konvertálásttimestamp
a .timezone
- A Spark-fürtkonfigurációk már nem vonatkoznak
spark.databricks.sql.externalUDF.*
a megosztott fürtök PySpark UDF-jeire. - A Spark-fürt konfigurációja
spark.databricks.safespark.externalUDF.plan.limit
már nem érinti a PySpark UDF-eket, így a PySpark UDF-ekhez lekérdezésenként 5UDF nyilvános előzetes verziós korlátozását szünteti meg. - A Spark-fürtkonfiguráció
spark.databricks.safespark.sandbox.size.default.mib
már nem vonatkozik a megosztott fürtöken lévő PySpark UDF-ekre. Ehelyett a rendszer rendelkezésre álló memóriát használ. A PySpark UDF-k memóriájának korlátozásához használjaspark.databricks.pyspark.udf.isolation.memoryLimit
a minimális értéket100m
.
- A visszatérési típussal rendelkező
- Az
TimestampNTZ
adattípus mostantól folyékony fürtözést tartalmazó fürtözési oszlopként is támogatott. Lásd: Folyékony fürtözés használata Delta-táblákhoz. - [SPARK-47218][SQL] XML: Megjegyzésként megadott sorcímkék figyelmen kívül hagyása az XML-jogkivonat-jelölőben
- [SPARK-46990][SQL] Az event-hubs által kibocsátott üres Avro-fájlok betöltésének javítása
- [SPARK-47033][SQL] Az EXECUTE IMMEDIATE USING javítás nem ismeri fel a munkamenet-változók nevét
- [SPARK-47368][SQL] InferTimestampNTZ konfigurációs ellenőrzés eltávolítása a ParquetRowConverterben
- [SPARK-47561][SQL] Az elemzői szabályrendeletekkel kapcsolatos problémák elhárítása az aliassal kapcsolatban
- [SPARK-47638][PS] [CONNECT] Oszlopnév-ellenőrzés kihagyása a PS-ben
- [SPARK-46906][BACKPORT] [SS] Állapotalapú operátor változásának ellenőrzése a streameléshez
- [SPARK-47569][SQL] Tiltsa le a variáns összehasonlítását.
- [SPARK-47241][SQL] Az ExtractGenerator szabályrendeleti problémáinak megoldása
- [SPARK-47218] [SQL] XML: A SchemaOfXml nem működik DROPMALFORMED módban
- [SPARK-47300][SQL]
quoteIfNeeded
idézőjel azonosítója számjegyekkel kezdődik - [SPARK-47009][SQL] [Rendezés] Tábla létrehozása támogatásának engedélyezése rendezéshez
- [SPARK-47322][PYTHON] [CONNECT] Az oszlopnevek duplikálásának kezelése konzisztenssé tétele
withColumnsRenamed
withColumnRenamed
- [SPARK-47544][PYTHON] A SparkSession Builder metódus nem kompatibilis a Visual Studio Code Intellisense használatával
- [SPARK-47511][SQL] Canonicalize with expressions by re-assigning azonosítók
- [SPARK-47385] Javítsa ki a kódolókat option bemenetekkel.
- [SPARK-47200][SS] Hibaosztály a Foreach batch sink felhasználói függvényének hibája esetén
- [SPARK-47135][SS] Hibaosztályok implementálása a Kafka adatvesztési kivételeihez
- [SPARK-38708][SQL] A Hive Metastore-ügyfél frissítése a Hive 3.1 3.3-ra
- [SPARK-47305][SQL] A PruneFilters javítása a LocalRelation isStreaming jelzőjének helyes címkézéséhez, ha a csomag köteget és streamet is tartalmaz
- [SPARK-47380][CONNECT] Győződjön meg arról, hogy a kiszolgáló oldalán a SparkSession ugyanaz
- Az operációs rendszer biztonsági frissítései.
- (Viselkedésváltozás) A számítási típusok konzisztens viselkedésének biztosítása érdekében a megosztott fürtökön lévő PySpark UDF-ek mostantól megfelelnek az elkülönítés nélküli és a hozzárendelt fürtök UDF-jeinek viselkedésének. Ez a frissítés a következő módosításokat tartalmazza, amelyek megszakíthatják a meglévő kódot:
Databricks Runtime 14.0
Lásd: Databricks Runtime 14.0 (EoS).
- 2024. február 8.
- [SPARK-46396] Az időbélyeg-következtetés nem vethet ki kivételt.
- [SPARK-46794] Távolítsa el az al lekérdezéseket a LogicalRDD-megkötésekből.
- [SPARK-45182] Az ellenőrzőösszeg által meghatározott szülő-határozatlan fázis ismételt megkísérlése után hagyja figyelmen kívül a feladat befejezését a régi fázisból.
- [SPARK-46933] Adjon hozzá lekérdezés-végrehajtási időmetrikát a JDBCRDD-t használó összekötőkhöz.
- [SPARK-45957] Ne generáljon végrehajtási tervet nem végrehajtható parancsokhoz.
- [SPARK-46861] Kerülje a holtpontot a DAGSchedulerben.
- [SPARK-46930] Az Avro union típusú mezőihez tartozó egyéni előtag támogatása.
- [SPARK-46941] Nem szúrható be ablakcsoport-korlátcsomópont a top-k számításhoz, ha a SizeBasedWindowFunctiont tartalmazza.
- [SPARK-45582] Győződjön meg arról, hogy a tárpéldány nem használható a véglegesítés kimeneti módú streamelési összesítésen belüli meghívása után.
- Az operációs rendszer biztonsági frissítései.
- 2024. január 31.
- [SPARK-46541] Javítsa ki a nem egyértelmű oszlophivatkozást az önillesztés során.
- [SPARK-46676] A dropDuplicatesWithinWatermark nem hiúsíthatja meg a terv canonicalizálását.
- [SPARK-46769] Pontosítsa az időbélyeggel kapcsolatos sémakövetkeztetést.
- [SPARK-45498] Követés: Figyelmen kívül hagyhatja a tevékenységek befejezését a régi fázisbeli kísérletekből.
- Visszaállítás [SPARK-46769] Az időbélyeggel kapcsolatos sémakövetkeztetés finomítása.
- [SPARK-46383] Az illesztőprogram halomhasználatának
TaskInfo.accumulables()
csökkentése a . - [SPARK-46633] Az Avro-olvasó javítása a nulla hosszúságú blokkok kezeléséhez.
- [SPARK-46677] Javítsa ki a
dataframe["*"]
felbontást. - [SPARK-46684] Az argumentumok megfelelő átadásához javítsa ki a CoGroup.applyInPandas/Arrow elemet.
- [SPARK-46763] Kijavítottuk az ismétlődő attribútumok helyességi hibáját a ReplaceDeduplicateWithAggregate fájlban.
- [SPARK-46610] A tábla létrehozása kivételt eredményez, ha a beállításokban nincs érték egy kulcs számára.
- Az operációs rendszer biztonsági frissítései.
- 2024. január 17.
- A
shuffle
Photon-lekérdezés által visszaadott magyarázó terv csomópontja frissül, hogy hozzáadja acausedBroadcastJoinBuildOOM=true
jelzőt, ha memóriakimaradási hiba lép fel egy közvetítési illesztés részét képező shuffle során. - A TLSv1.3-n keresztüli kommunikáció megnövekedett késésének elkerülése érdekében ez a karbantartási kiadás tartalmaz egy javítást a JDK 8 telepítésében a JDK-8293562 hiba kijavításához.
- [SPARK-46394] A spark.catalog.listDatabases() hibáinak kijavítása speciális karakterekkel rendelkező sémákon, ha
spark.sql.legacy.keepCommandOutputSchema
igaz értékre van állítva. - [SPARK-46250] Deflake test_parity_listener.
- [SPARK-45814] A memóriaszivárgás elkerülése érdekében zárja be az ArrowConverters.createEmptyArrowBatch hívást.
- [SPARK-46173] A trimAll hívás kihagyása a dátum elemzése során.
- [SPARK-46484] A
resolveOperators
segédfüggvények megtartják a terv azonosítóját. - [SPARK-46466] A vektoros parquet-olvasónak soha nem szabad újrabázist végeznie az időbélyeg ntz-hez.
- [SPARK-46056] Parquet vectorized read NPE javítása byteArrayDecimalType alapértelmezett értékkel.
- [SPARK-46058] Adjon hozzá külön jelölőt a privateKeyPasswordhez.
- [SPARK-46478] Állítsa vissza a SPARK-43049-et az oracle varchar(255) sztringhez való használatához.
- [SPARK-46132] Az RPC SSL JKS-kulcsainak támogatási kulcsa.
- [SPARK-46417] Ne hiúsuljon meg a hive.getTable hívásakor, és a throwException értéke hamis.
- [SPARK-46261]
DataFrame.withColumnsRenamed
meg kell őriznie a diktálás/térképrendezést. - [SPARK-46370] Az oszlop alapértelmezett értékének módosítása után kijavítottuk a táblából való lekérdezéskor megjelenő hibát.
- [SPARK-46609] Kerülje az exponenciális robbanást a PartitioningPreservingUnaryExecNode-ban.
- [SPARK-46600] Megosztott kód áthelyezése az SqlConf és az SqlApiConf között az SqlApiConfHelperbe.
- [SPARK-46538] Kijavítottuk a nem egyértelmű oszlophivatkozási hibát a következőben
ALSModel.transform
: . - [SPARK-46337] Őrizze meg
CTESubstitution
aPLAN_ID_TAG
. - [SPARK-46602]
allowExisting
Propagálja a nézetlétrehozásban, ha a nézet/tábla nem létezik. - [SPARK-46260]
DataFrame.withColumnsRenamed
tiszteletben kell tartania a diktálás sorrendjét. - [SPARK-46145] A spark.catalog.listTables nem okoz kivételt, ha a tábla vagy a nézet nem található.
- A
- 2023. december 14.
- Kijavítottunk egy hibát, amely miatt a JDBC-ből vagy ODBC-ügyfelekből származó getColumns-műveletekben a szökött aláhúzásjelek helytelenül lettek kezelve, és helyettesítő karakterekként lettek értelmezve.
- [SPARK-46255] Összetett típus támogatása –> sztringátalakítás.
- [SPARK-46028] Fogadja el
Column.__getitem__
a bemeneti oszlopot. - [SPARK-45920] a csoportosításnak sorszám szerint idempotensnek kell lennie.
- [SPARK-45433] Javítsa ki a CSV/JSON-séma következtetését, ha az időbélyegek nem felelnek meg a megadott időbélyegformának.
- [SPARK-45509] A Spark Connect df oszlophivatkozási viselkedésének javítása.
- Az operációs rendszer biztonsági frissítései.
- 2023. november 29.
- Telepített egy új csomagot a
pyarrow-hotfix
PyArrow RCE biztonsági rés elhárításához. - Kijavítottunk egy hibát, amely miatt a JDBC-ből vagy ODBC-ügyfelekből származó műveletekben a kimenekült aláhúzásmagok
getColumns
helytelenül helyettesítő karakterekként lettek értelmezve. - Ha CSV-adatokat tölt be automatikus betöltő vagy streamelő táblák használatával, a nagy CSV-fájlok mostantól feloszthatók, és párhuzamosan is feldolgozhatók a sémakövetkeztetés és az adatfeldolgozás során.
- A Spark-snowflake összekötő 2.12.0-ra frissül.
- [SPARK-45859] Az UDF-objektumok
ml.functions
lusták. - Visszaállítás [SPARK-45592].
- [SPARK-45892] Újrabontási optimalizálási terv érvényesítése a leválasztáshoz
validateSchemaOutput
ésvalidateExprIdUniqueness
a . - [SPARK-45592] Kijavítottuk az AQE helyességi problémáját a következővel
InMemoryTableScanExec
: . - [SPARK-45620] A Python UDF-hez kapcsolódó API-k mostantól camelCaset használnak.
- [SPARK-44784] SBT-teszt hermetikus lett.
- [SPARK-45770] Rögzített oszlopfelbontás a következővel
DataFrameDropColumns
Dataframe.drop
: . - [SPARK-45544] Integrált SSL-támogatás a
TransportContext
. - [SPARK-45730] Továbbfejlesztett időkorlátok a
ReloadingX509TrustManagerSuite
. - Az operációs rendszer biztonsági frissítései.
- Telepített egy új csomagot a
- 2023. november 10.
- Módosított adatcsatorna-lekérdezések a Unity Catalog streamelési tábláiban és materializált nézeteiben a hibaüzenetek megjelenítéséhez.
- [SPARK-45545]
SparkTransportConf
SSLOptions
a létrehozáskor örökli. - [SPARK-45584] Kijavítottuk a subquery-futtatási hibát a következővel
TakeOrderedAndProjectExec
: . - [SPARK-45427] RPC SSL-beállításokat adtunk hozzá az és
SparkTransportConf
aSSLOptions
. - [SPARK-45541] Hozzáadva
SSLFactory
. - [SPARK-45430]
FramelessOffsetWindowFunction
már nem meghiúsul, amikorIGNORE NULLS
ésoffset > rowCount
. - [SPARK-45429] Segédosztályok hozzáadva az SSL RPC-kommunikációhoz.
- [SPARK-44219] További szabályonkénti érvényesítések hozzáadva az optimalizálási újraírásokhoz.
- [SPARK-45543] Kijavítottunk egy hibát, amely
InferWindowGroupLimit
hibát eredményezett, ha a többi ablakfüggvény nem azonos az ablakkerettel, mint a rangsorolt függvények. - Az operációs rendszer biztonsági frissítései.
- 2023. október 23.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
ReloadingX509TrustManager
: . - [SPARK-45396] Hozzáadta a modulhoz tartozó
PySpark.ml.connect
dokumentumbejegyzést, és hozzáadtaEvaluator
a következőhöz__all__
ml.connect
: . - [SPARK-45256] Kijavítottunk egy hibát, amely
DurationWriter
miatt nem sikerült több értéket írni, mint a kezdeti kapacitás. - [SPARK-45279] Minden logikai tervhez csatolva
plan_id
. - [SPARK-45250] A dinamikus lefoglalás kikapcsolásakor a yarnfürtök szakaszszintű tevékenységerőforrás-profiljának támogatása lett hozzáadva.
- [SPARK-45182] A visszagördülő shuffle leképezési szakasz támogatása, így az összes szakaszfeladat újrapróbálható, ha a szakasz kimenete határozatlan.
- [SPARK-45419] A nagyobb verziók fájlverzió-megfeleltetési bejegyzéseinek eltávolításával ne használja
rocksdb sst
újra a fájlokat egy másikrocksdb
példányban. - [SPARK-45386] Kijavítottunk egy hibát, amely
StorageLevel.NONE
miatt a 0 helytelenül lett visszaadva. - Az operációs rendszer biztonsági frissítései.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
- 2023. október 13.
- A Snowflake-jdbc függőség 3.13.29-ről 3.13.33-ra frissült.
- A
array_insert
függvény 1-alapú a pozitív és negatív indexekhez, míg korábban a negatív indexek esetében 0-alapú volt. Most egy új elemet szúr be a -1 index bemeneti tömbjeinek végére. Az előző viselkedés visszaállításához állítsa be a következőtspark.sql.legacy.negativeIndexInArrayInsert
true
: . - Az Azure Databricks már nem hagyja figyelmen kívül a sérült fájlokat, ha egy CSV-séma az Automatikus betöltővel való következtetése engedélyezve
ignoreCorruptFiles
van. - [SPARK-45227] Kijavítottunk egy finom szálbiztonsági problémát a
CoarseGrainedExecutorBackend
. - [SPARK-44658]
ShuffleStatus.getMapStatus
helyett a függvénynek kell visszatérnieNone
Some(null)
. - [SPARK-44910]
Encoders.bean
nem támogatja az általános típusú argumentumokkal rendelkező szuperosztályokat. - [SPARK-45346] A parquet-séma következtetése tiszteletben tartja a kis- és nagybetűket megkülönböztető jelzőket a séma egyesítésekor.
- Visszaállítás [SPARK-42946].
- [SPARK-42205] Frissítette a JSON protokollt, hogy eltávolítsa az Accumulables naplózását egy tevékenységben vagy szakaszindítási eseményben.
- [SPARK-45360] A Spark-munkamenet-szerkesztő támogatja az inicializálást a következőből
SPARK_REMOTE
: . - [SPARK-45316] Adjon hozzá új paramétereket
ignoreCorruptFiles
/ignoreMissingFiles
a ésNewHadoopRDD
a .HadoopRDD
- [SPARK-44909] Ha nem érhető el, hagyja ki a fáklya forgalmazói naplóstreamelési kiszolgáló futtatását.
- [SPARK-45084]
StateOperatorProgress
Mostantól pontos shuffle partíciószámot használ. - [SPARK-45371] Kijavítottuk a Spark Connect Scala-ügyfél árnyékolási problémáit.
- [SPARK-45178] Ne használja a burkolót, hanem egyetlen köteget
Trigger.AvailableNow
futtasson nem támogatott forrásokkal. - [SPARK-44840] Negatív indexekhez készítsen
array_insert()
1-alapút. - [SPARK-44551] Szerkesztett megjegyzések az OSS-sel való szinkronizáláshoz.
- [SPARK-45078] A
ArrayInsert
függvény explicit öntést végez, ha az elemtípus nem egyenlő a származtatott összetevőtípussal. - [SPARK-45339] A PySpark most naplózza az újrapróbálkozások hibáit.
- [SPARK-45057] Ne szerezzen be olvasási zárolást, ha
keepReadLock
hamis. - [SPARK-44908] Kijavítottuk a kereszt-érvényesítő
foldCol
param funkcióit. - Az operációs rendszer biztonsági frissítései.
Databricks Runtime 13.1
Lásd: Databricks Runtime 13.1 (EoS).
- 2023. november 29.
- Kijavítottunk egy hibát, amely miatt a JDBC-ből vagy ODBC-ügyfelekből származó műveletekben a kimenekült aláhúzásmagok
getColumns
helytelenül helyettesítő karakterekként lettek értelmezve. - [SPARK-44846] Az összetett csoportosítási kifejezések el lettek távolítva a program után
RemoveRedundantAggregates
. - [SPARK-43802] Kijavítottunk egy hibát, amely miatt a unhex és a unbase64-kifejezések kodenizálása meghiúsult.
- [SPARK-43718] Kijavítottuk az illesztések kulcsainak nullhipotitását
USING
. - Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely miatt a JDBC-ből vagy ODBC-ügyfelekből származó műveletekben a kimenekült aláhúzásmagok
- 2023. november 14.
- A Delta Lake streamelési lekérdezések partíciószűrői le lesznek küldve a sebességkorlátozás előtt a jobb kihasználtság érdekében.
- Módosított adatcsatorna-lekérdezések a Unity Catalog streamelési tábláiban és materializált nézeteiben a hibaüzenetek megjelenítéséhez.
- [SPARK-45584] Kijavítottuk a subquery-futtatási hibát a következővel
TakeOrderedAndProjectExec
: . - [SPARK-45430]
FramelessOffsetWindowFunction
már nem meghiúsul, amikorIGNORE NULLS
ésoffset > rowCount
. - [SPARK-45543] Kijavítottunk egy hibát, amely
InferWindowGroupLimit
akkor okozott problémát, ha a többi ablakfüggvény nem ugyanazzal az ablakkerettel rendelkezik, mint a rangszerű függvények. - Az operációs rendszer biztonsági frissítései.
- 2023. október 24.
- [SPARK-43799] Leíró bináris beállítás hozzáadva a PySpark
Protobuf
API-hoz. - Visszaállítás [SPARK-42946].
- [SPARK-45346] A parquet-séma következtetése mostantól tiszteletben tartja a kis- és nagybetűket megkülönböztető jelzőt egy séma egyesítésekor.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-43799] Leíró bináris beállítás hozzáadva a PySpark
- 2023. október 13.
- A Snowflake-jdbc függőség 3.13.29-ről 3.13.33-ra frissült.
- A sérült fájlok már nem figyelmen kívül hagyása, ha
ignoreCorruptFiles
engedélyezve van a CSV-séma automatikus betöltővel való következtetése során. - [SPARK-44658]
ShuffleStatus.getMapStatus
a függvény ahelyett,None
hogy a .-tSome(null)
adja vissza. - [SPARK-45178] Ne használja a burkolót, hanem egyetlen köteget
Trigger.AvailableNow
futtasson nem támogatott forrásokkal. - [SPARK-42205] Frissítette a JSON protokollt, hogy eltávolítsa az Accumulables naplózását egy tevékenységben vagy szakaszindítási eseményben.
- Az operációs rendszer biztonsági frissítései.
- 2023. szeptember 12.
- [SPARK-44718] A
ColumnVector
memóriamód alapértelmezett konfigurációjának egyeztetése a konfiguráció értékévelOffHeapMemoryMode
. - SPARK-44878 Kikapcsolta az íráskezelő szigorú
RocksDB
korlátját, hogy elkerülje a beszúrási kivételt a gyorsítótárban. - Egyéb javítások.
- [SPARK-44718] A
- 2023. augusztus 30.
- [SPARK-44871] Kijavítottuk a percentile_disc viselkedését.
- [SPARK-44714] Az LCA-feloldás egyszerű korlátozása a lekérdezésekkel kapcsolatban.
- [SPARK-44245]
PySpark.sql.dataframe sample()
A dokumentumtesztek mostantól csak szemléltető jellegűek. - [SPARK-44818] Kijavítottuk az inicializálás előtt
taskThread
kiadott függőben lévő tevékenység megszakításának versenyét. - Az operációs rendszer biztonsági frissítései.
- 2023. augusztus 15.
- [SPARK-44485] Optimalizált
TreeNode.generateTreeString
. - [SPARK-44643] Ki lett javítva
Row.__repr__
, ha a sor üres. - [SPARK-44504] A karbantartási feladat mostantól leállási hiba miatt törli a betöltött szolgáltatókat.
- [SPARK-44479] Kijavítottuk
protobuf
az átalakítást üres szerkezettípusból. - [SPARK-44464] Az első oszlopértékként megadott
Null
kimeneti sorokhoz van javítvaapplyInPandasWithStatePythonRunner
. - Egyéb javítások.
- [SPARK-44485] Optimalizált
- 2023. július 27.
- Kijavítottunk egy hibát, amely
dbutils.fs.ls()
akkor lett visszaadvaINVALID_PARAMETER_VALUE.LOCATION_OVERLAP
, amikor olyan tárolási hely elérési útját kérték, amely ütközött más külső vagy felügyelt tárhellyel. - [SPARK-44199]
CacheManager
a továbbiakban nem frissíti feleslegesen.fileIndex
- [SPARK-44448] Kijavítottuk a hibás találatokat a következőből
DenseRankLimitIterator
: ésInferWindowGroupLimit
. - Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely
- 2023. július 24.
- Visszaállítás [SPARK-42323].
- [SPARK-41848] Kijavítottuk a feladat túlütemezési problémáját.
TaskResourceProfile
- [SPARK-44136] Kijavítottunk egy hibát, amely
StateManager
miatt a rendszer a végrehajtóban materializálta a fájlt az illesztőFlatMapGroupsWithStateExec
helyett. - [SPARK-44337] Kijavítottunk egy hibát, amely miatt bármely mező
Any.getDefaultInstance
elemzési hibákat okozott. - Az operációs rendszer biztonsági frissítései.
- 2023. június 27.
- Az operációs rendszer biztonsági frissítései.
- 2023. június 15.
- Fotonizált
approx_count_distinct
. - A JSON-elemző
failOnUnknownFields
módban most már módban elveti a rekordotDROPMALFORMED
, és közvetlenülFAILFAST
módban meghiúsul. - A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- Az
PubSubRecord
attribútummező jSON-ként van tárolva a Scala-térkép sztringje helyett az egyszerűbb szerializálás és deszerializálás érdekében. - A
EXPLAIN EXTENDED
parancs most visszaadja a lekérdezés eredménygyorsítótár-jogosultságát. - Növelje a növekményes frissítések teljesítményét az Iceberg és a Parquet használatával
SHALLOW CLONE
. - [SPARK-43032] Python SQM hibajavítás.
- [SPARK-43404]Az azonosítóeltérési hiba elkerülése érdekében hagyja ki a RocksDB-állapottároló ugyanazon verziójához tartozó sst-fájl újbóli újrafelhasználását.
- [SPARK-43340] A hiányzó stack-trace mező kezelése az eseménynaplókban.
- [SPARK-43527] Javítva
catalog.listCatalogs
a PySparkban. - [SPARK-43541] Propagálja az összes
Project
címkét a kifejezések és a hiányzó oszlopok feloldása során. - [SPARK-43300]
NonFateSharingCache
Burkoló a Guava Cache-hez. - [SPARK-43378] A streamobjektumok megfelelő bezárása a következőben:
deserializeFromChunkedBuffer
. - [SPARK-42852] Kapcsolódó módosítások visszaállítása
NamedLambdaVariable
innenEquivalentExpressions
: . - [SPARK-43779]
ParseToDate
most betöltődikEvalMode
a főszálban. - [SPARK-43413] A subquery
ListQuery
nullability javításaIN
. - [SPARK-43889] Adja hozzá az oszlopnév ellenőrzéséhez
__dir__()
a hibalehetőséget jelző oszlopnevek kiszűréséhez. - [SPARK-43043] Az .updateMapOutput teljesítményének
MapOutputTracker
javítása - [SPARK-43522] Kijavítottuk a tömboszlop nevének tömbindexel való létrehozását.
- [SPARK-43457] Augument felhasználói ügynök operációsrendszer-, Python- és Spark-verziókkal.
- [SPARK-43286] Frissített
aes_encrypt
CBC mód véletlenszerű IV-k létrehozásához. - [SPARK-42851] Őrzés
EquivalentExpressions.addExpr()
asupportedExpression()
. - Visszaállítás [SPARK-43183].
- Az operációs rendszer biztonsági frissítései.
- Fotonizált
Databricks Runtime 12.2 LTS
Lásd: Databricks Runtime 12.2 LTS.
- 2023. november 29.
- Kijavítottunk egy hibát, amely miatt a JDBC-ből vagy ODBC-ügyfelekből származó műveletekben a kimenekült aláhúzásmagok
getColumns
helytelenül helyettesítő karakterekként lettek értelmezve. - [SPARK-42205] Eltávolítottuk a naplózási elemeket,
Stage
ésTask
eseményeket indítunk el. - [SPARK-44846] Az összetett csoportosítási kifejezések el lettek távolítva a program után
RemoveRedundantAggregates
. - [SPARK-43718] Kijavítottuk az illesztések kulcsainak nullhipotitását
USING
. - [SPARK-45544] Integrált SSL-támogatás a
TransportContext
. - [SPARK-43973] A strukturált streamelési felhasználói felület mostantól helyesen jeleníti meg a sikertelen lekérdezéseket.
- [SPARK-45730] Továbbfejlesztett időkorlátok a
ReloadingX509TrustManagerSuite
. - [SPARK-45859] Az UDF-objektumok
ml.functions
lusták. - Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely miatt a JDBC-ből vagy ODBC-ügyfelekből származó műveletekben a kimenekült aláhúzásmagok
- 2023. november 14.
- A Delta Lake streamelési lekérdezések partíciószűrői le lesznek küldve a sebességkorlátozás előtt a jobb kihasználtság érdekében.
- [SPARK-45545]
SparkTransportConf
SSLOptions
a létrehozáskor örökli. - [SPARK-45427] RPC SSL-beállításokat adtunk hozzá az és
SparkTransportConf
aSSLOptions
. - [SPARK-45584] Kijavítottuk a subquery-futtatási hibát a következővel
TakeOrderedAndProjectExec
: . - [SPARK-45541] Hozzáadva
SSLFactory
. - [SPARK-45430]
FramelessOffsetWindowFunction
már nem meghiúsul, amikorIGNORE NULLS
ésoffset > rowCount
. - [SPARK-45429] Segédosztályok hozzáadva az SSL RPC-kommunikációhoz.
- Az operációs rendszer biztonsági frissítései.
- 2023. október 24.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
ReloadingX509TrustManager
: . - Egyéb javítások.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
- 2023. október 13.
- A Snowflake-jdbc függőség 3.13.29-ről 3.13.33-ra frissült.
- [SPARK-42553] Győződjön meg róla, hogy intervallum után legalább egy időegységet kell használnia.
- [SPARK-45346] A parquet-séma következtetése tiszteletben tartja a kis- és nagybetűket megkülönböztető jelzőt a séma egyesítésekor.
- [SPARK-45178] Ne használja a burkolót, hanem egyetlen köteget
Trigger.AvailableNow
futtasson nem támogatott forrásokkal. - [SPARK-45084]
StateOperatorProgress
a pontos, megfelelő shuffle partíciószám használatához.
- 2023. szeptember 12.
- [SPARK-44873] A Hive-ügyfél beágyazott oszlopainak támogatása
alter view
hozzáadva. - [SPARK-44718] A
ColumnVector
memóriamód alapértelmezett konfigurációjának egyeztetése a konfiguráció értékévelOffHeapMemoryMode
. - [SPARK-43799] Leíró bináris beállítás hozzáadva a PySpark
Protobuf
API-hoz. - Egyéb javítások.
- [SPARK-44873] A Hive-ügyfél beágyazott oszlopainak támogatása
- 2023. augusztus 30.
- [SPARK-44485] Optimalizált
TreeNode.generateTreeString
. - [SPARK-44818] Kijavítottuk az inicializálás előtt
taskThread
kiadott függőben lévő tevékenység megszakításának versenyét. - [SPARK-44871][11.3-13.0] Rögzített
percentile_disc
viselkedés. - [SPARK-44714] Enyhített az LCA-feloldás korlátozása a lekérdezésekkel kapcsolatban.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-44485] Optimalizált
- 2023. augusztus 15.
- [SPARK-44504] A karbantartási feladat leállási hiba miatt törli a betöltött szolgáltatókat.
- [SPARK-44464] Az első oszlopértékként megadott
Null
kimeneti sorokhoz van javítvaapplyInPandasWithStatePythonRunner
. - Az operációs rendszer biztonsági frissítései.
- 2023. július 29.
- Kijavítottunk egy hibát, amely
dbutils.fs.ls()
akkor lett visszaadvaINVALID_PARAMETER_VALUE.LOCATION_OVERLAP
, amikor olyan tárolási hely elérési útját kérték, amely ütközött más külső vagy felügyelt tárhellyel. - [SPARK-44199]
CacheManager
a továbbiakban nem frissíti feleslegesen.fileIndex
- Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely
- 2023. július 24.
- [SPARK-44337] Kijavítottunk egy hibát, amely miatt bármely mező
Any.getDefaultInstance
elemzési hibákat okozott. - [SPARK-44136] Kijavítottunk egy hibát, amely
StateManager
miatt a rendszer a végrehajtóban materializálta a fájlt az illesztőFlatMapGroupsWithStateExec
helyett. - Az operációs rendszer biztonsági frissítései.
- [SPARK-44337] Kijavítottunk egy hibát, amely miatt bármely mező
- 2023. június 23.
- Az operációs rendszer biztonsági frissítései.
- 2023. június 15.
- Fotonizált
approx_count_distinct
. - A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- [SPARK-43779]
ParseToDate
most betöltődikEvalMode
a főszálban. - [SPARK-43156][SPARK-43098] Kiterjesztett skaláris subquery count hibateszt
decorrelateInnerQuery
kikapcsolva. - Az operációs rendszer biztonsági frissítései.
- Fotonizált
- 2023. június 2.
- A JSON-elemző
failOnUnknownFields
módban elvet egy rekordotDROPMALFORMED
módban, és közvetlenülFAILFAST
módban meghiúsul. - Növelje a növekményes frissítések teljesítményét az Iceberg és a Parquet használatával
SHALLOW CLONE
. - Kijavítottunk egy hibát az Automatikus betöltőben, amelyben a különböző forrásfájlformátumok inkonzisztensek voltak, amikor a megadott séma nem tartalmazott következtetéses partíciókat. Ez a probléma váratlan hibákat okozhat a hiányzó oszlopokat tartalmazó fájlok olvasása során a késleltetett partíciós sémában.
- [SPARK-43404] Az azonosítóeltérési hiba elkerülése érdekében hagyja ki a RocksDB-állapottároló ugyanazon verziójához tartozó sst-fájl újbóli újrafelhasználását.
- [SPARK-43413][11.3-13.0] Kijavítottuk
IN
a subqueryListQuery
nullability-t. - [SPARK-43522] Kijavítottuk a tömboszlop nevének tömbindexel való létrehozását.
- [SPARK-43541] Propagálja az összes
Project
címkét a kifejezések és a hiányzó oszlopok feloldása során. - [SPARK-43527] Javítva
catalog.listCatalogs
a PySparkban. - [SPARK-43123] A belső mező metaadatai már nem szivárognak ki a katalógusokbe.
- [SPARK-43340] Kijavítottuk a hiányzó verem nyomkövetési mezőjét az eseménynaplókban.
- [SPARK-42444]
DataFrame.drop
mostantól megfelelően kezeli a duplikált oszlopokat. - [SPARK-42937]
PlanSubqueries
mostantól igaz értékre van állítódvaInSubqueryExec#shouldBroadcast
. - [SPARK-43286] Frissített
aes_encrypt
CBC mód véletlenszerű IV-k létrehozásához. - [SPARK-43378] A streamobjektumok megfelelő bezárása a következőben:
deserializeFromChunkedBuffer
.
- A JSON-elemző
- 2023. május 17.
- A parquet-vizsgálatok mostantól hatékonyak az OOM-ekkel szemben, amikor a köteg méretének dinamikus módosításával kivételesen strukturált fájlokat vizsgálnak. A fájl metaadatait a rendszer a köteg méretének előzetes csökkentése érdekében elemzi, és a feladat újrapróbálkozásakor ismét csökkenti végleges biztonsági hálóként.
- Ha egy Avro-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns\
olvastak afailOnUnknownFields\
sémafejlődési módban, a különböző adattípusokkal rendelkező oszlopok ahelyett, hogy hibaüzenetet adnánaknull\
, amely szerint a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn\
lehetőséget. - Az Automatikus betöltő mostantól a következőket végzi el.
-
- Helyesen olvas, és már nem menti
Integer
azokat,Short
ésByte
ha az egyik ilyen adattípus meg van adva, az Avro-fájl a másik két típus egyikét javasolja.
- Helyesen olvas, és már nem menti
-
- Megakadályozza az intervallumtípusok dátum- vagy időbélyeg-típusokként való olvasását, hogy elkerülje a sérült dátumok beolvasását.
-
- Megakadályozza a kisebb pontosságú olvasási
Decimal
típusokat.
- Megakadályozza a kisebb pontosságú olvasási
- [SPARK-43172] A Spark Connect-ügyfél gazdagépét és jogkivonatát teszi elérhetővé.
- [SPARK-43293]
__qualified_access_only
a rendszer a normál oszlopokban figyelmen kívül hagyja. - [SPARK-43098] Kijavítottuk a helyességi
COUNT
hibát, ha a skaláris alkérdezés záradék szerint van csoportosítva. - [SPARK-43085] Többrészes táblanevek oszlop-hozzárendelésének
DEFAULT
támogatása. - [SPARK-43190]
ListQuery.childOutput
most már konzisztens a másodlagos kimenettel. - [SPARK-43192] Eltávolítva a felhasználói ügynök karakterkészletének ellenőrzése.
- Az operációs rendszer biztonsági frissítései.
- 2023. április 25.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns
olvastak afailOnUnknownFields
sémafejlődési módban, a rendszer a különböző adattípusokkal rendelkező oszlopokat úgy olvassa fel, mintnull
ahelyett, hogy hibaüzenetet adna arról, hogy a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn
lehetőséget. - Az Automatikus betöltő mostantól helyesen olvassa be az adatokat, és már nem menti
Integer
azokat,Short
ésByte
ha ezek közül az adattípusok egyike meg van adva. A Parquet-fájl a másik két típus egyikét javasolja. Ha a mentett adatoszlop korábban engedélyezve lett, az adattípus eltérése az oszlopok mentését okozhatja annak ellenére, hogy olvashatók voltak. - [SPARK-43009] Állandókkal
Any
paraméterezvesql()
- [SPARK-42406] A Protobuf rekurzív mezőinek leállása a mező elvetésével
- [SPARK-43038] A CBC mód támogatása a következővel:
aes_encrypt()
/aes_decrypt()
- [SPARK-42971] Módosítsa a nyomtatásra
workdir
, haappDirs
null értékű a feldolgozói kezelőWorkDirCleanup
eseménye - [SPARK-43018] Az INSERT-parancsok időbélyeg-literálokkal kapcsolatos hibájának javítása
- Az operációs rendszer biztonsági frissítései.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
- 2023. április 11.
- Támogatja a régi adatforrásformátumokat a
SYNC
parancsban. - Kijavítottuk a tárházban kívüli jegyzetfüzetek %automatikus betöltési viselkedésével kapcsolatos hibát.
- Kijavítottunk egy hibát, amely miatt az automatikus betöltő séma fejlődése végtelen feladathurkba léphet, amikor egy új oszlopot észlel egy beágyazott JSON-objektum sémájában.
- [SPARK-42928] Szinkronizálva lesz
resolvePersistentFunction
. - [SPARK-42936] Kijavítja az LCan-hibát, ha a záradék közvetlenül a gyermekösszesítéssel oldható meg.
- [SPARK-42967] Javítások
SparkListenerTaskStart.stageAttemptId
, amikor egy tevékenység a szakasz megszakítása után indul el. - Az operációs rendszer biztonsági frissítései.
- Támogatja a régi adatforrásformátumokat a
- 2023. március 29.
A Databricks SQL mostantól támogatja a Delta Lake-táblák oszlopainak alapértelmezett értékeinek megadását akár a tábla létrehozásakor, akár utána. Az ezt követő
INSERT
,UPDATE
ésMERGE
DELETE
parancsok bármely oszlop alapértelmezett értékére hivatkozhatnak az explicitDEFAULT
kulcsszó használatával. Ezenkívül ha egyINSERT
hozzárendelésnek a céltáblánál kevesebb oszlopból álló explicit listája van, a megfelelő oszlop alapértelmezett értékeit a rendszer a fennmaradó oszlopokra cseréli (vagy NULL értéket, ha nincs megadva alapértelmezett érték).Példa:
CREATE TABLE t (first INT, second DATE DEFAULT CURRENT_DATE()); INSERT INTO t VALUES (0, DEFAULT); INSERT INTO t VALUES (1, DEFAULT); SELECT first, second FROM t; \> 0, 2023-03-28 1, 2023-03-28z
Az Automatikus betöltő mostantól legalább egy szinkron RocksDB-naplókarbantartást
Trigger.AvailableNow
kezdeményez a streamekhez, hogy ellenőrizze, hogy az ellenőrzőpont rendszeresen megtisztítható-e a gyorsan futó automatikus betöltő streamekhez. Ez bizonyos streameket hosszabb ideig is igénybe vehet, mielőtt leállnának, de ezzel tárolási költségeket takaríthat meg, és javíthatja az automatikus betöltő felületét a későbbi futtatások során.Most már módosíthatja a Delta-táblázatot, hogy támogatást adjon a táblafunkciókhoz a következő használatával
DeltaTable.addFeatureSupport(feature_name)
: .[SPARK-42794] Növelje a lockAcquireTimeoutM-eket 2 percre a RocksDB állapottárolójának a Structure Streamingben való beszerzéséhez
[SPARK-42521] NULL-ek hozzáadása INSERT-ekhez a céltáblánál kevesebb oszlopot tartalmazó, felhasználó által megadott listákkal
[SPARK-42702][SPARK-42623] Paraméteres lekérdezés támogatása az alkérésben és a CTE-ben
[SPARK-42668] Kivétel észlelése a tömörített stream HDFSStateStoreProvider leállítása közben
[SPARK-42403] A JsonProtocolnak null JSON-sztringeket kell kezelnie
- 2023. március 8.
- A "Konfiguráció inicializálásának sikertelensége" hibaüzenetet javítottuk, hogy több kontextust biztosítsunk az ügyfél számára.
- Terminológiamódosítás történik a funkciók Delta-táblához való hozzáadásához a táblatulajdonság használatával. Az előnyben részesített szintaxis most már
'delta.feature.featureName'='supported'
'delta.feature.featureName'='enabled'
nem a . A visszamenőleges kompatibilitás érdekében a használat'delta.feature.featureName'='enabled'
továbbra is működik, és továbbra is működni fog. - Ettől a kiadástól kezdve létrehozhat/lecserélhet egy táblát egy további táblatulajdonságra
delta.ignoreProtocolDefaults
, hogy figyelmen kívül hagyja a protokollhoz kapcsolódó Spark-konfigurációkat, beleértve az alapértelmezett olvasó- és íróverziókat, valamint az alapértelmezés szerint támogatott táblázatfunkciókat. - [SPARK-42070] A Maszk függvény argumentumának alapértelmezett értékének módosítása -1 értékről NULL értékre
- [SPARK-41793] Nem megfelelő eredmény a jelentős tizedesjegyek tartomány-záradéka által definiált ablakkeretekhez
- [SPARK-42484] A UnsafeRowUtils jobb hibaüzenete
- [SPARK-42516] A munkamenet időzóna-konfigurációjának rögzítése a nézetek létrehozásakor
- [SPARK-42635] Javítsa ki a TimestampAdd kifejezést.
- [SPARK-42622] Az értékek helyettesítésének kikapcsolása
- [SPARK-42534] Db2Dialect Limit záradék javítása
- [SPARK-42121] Beépített táblaértékű posexplode, posexplode_outer, json_tuple és stack függvények hozzáadása
- [SPARK-42045] ANSI SQL mód: A Kerek/Bround hibát ad vissza apró/kis/jelentős egész szám túlcsordulás esetén
- Az operációs rendszer biztonsági frissítései.
Databricks Runtime 11.3 LTS
Lásd: Databricks Runtime 11.3 LTS.
- 2023. november 29.
- Kijavítottunk egy hibát, amely miatt a JDBC-ből vagy ODBC-ügyfelekből származó műveletekben a kimenekült aláhúzásmagok
getColumns
helytelenül helyettesítő karakterekként lettek értelmezve. - [SPARK-43973] A strukturált streamelési felhasználói felület mostantól helyesen jeleníti meg a sikertelen lekérdezéseket.
- [SPARK-45730] Továbbfejlesztett időkorlátok a
ReloadingX509TrustManagerSuite
. - [SPARK-45544] Integrált SSL-támogatás a
TransportContext
. - [SPARK-45859] Az UDF-objektumok
ml.functions
lusták. - [SPARK-43718] Kijavítottuk az illesztések kulcsainak nullhipotitását
USING
. - [SPARK-44846] Az összetett csoportosítási kifejezések el lettek távolítva a program után
RemoveRedundantAggregates
. - Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely miatt a JDBC-ből vagy ODBC-ügyfelekből származó műveletekben a kimenekült aláhúzásmagok
- 2023. november 14.
- A Delta Lake streamelési lekérdezések partíciószűrői le lesznek küldve a sebességkorlátozás előtt a jobb kihasználtság érdekében.
- [SPARK-42205] A szakasz- és tevékenységindítási eseményekben eltávolított naplózási elemek.
- [SPARK-45545]
SparkTransportConf
SSLOptions
a létrehozáskor örökli. - Visszaállítás [SPARK-33861].
- [SPARK-45541] Hozzáadva
SSLFactory
. - [SPARK-45429] Segédosztályok hozzáadva az SSL RPC-kommunikációhoz.
- [SPARK-45584] Kijavítottuk a subquery-futtatási hibát a következővel
TakeOrderedAndProjectExec
: . - [SPARK-45430]
FramelessOffsetWindowFunction
már nem meghiúsul, amikorIGNORE NULLS
ésoffset > rowCount
. - [SPARK-45427] RPC SSL-beállításokat adtunk hozzá az és
SparkTransportConf
aSSLOptions
. - Az operációs rendszer biztonsági frissítései.
- 2023. október 24.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
ReloadingX509TrustManager
: . - Egyéb javítások.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
- 2023. október 13.
- A Snowflake-jdbc függőség 3.13.29-ről 3.13.33-ra frissült.
- [SPARK-45178] Ne használja a burkolót, hanem egyetlen köteget
Trigger.AvailableNow
futtasson nem támogatott forrásokkal. - [SPARK-45084]
StateOperatorProgress
a pontos, megfelelő shuffle partíciószám használatához. - [SPARK-45346] A parquet-séma következtetése mostantól tiszteletben tartja a kis- és nagybetűket megkülönböztető jelzőt egy séma egyesítésekor.
- Az operációs rendszer biztonsági frissítései.
- 2023. szeptember 10.
- Egyéb javítások.
- 2023. augusztus 30.
- [SPARK-44818] Kijavítottuk az inicializálás előtt
taskThread
kiadott függőben lévő tevékenység megszakításának versenyét. - [SPARK-44871][11.3-13.0] Rögzített
percentile_disc
viselkedés. - Az operációs rendszer biztonsági frissítései.
- [SPARK-44818] Kijavítottuk az inicializálás előtt
- 2023. augusztus 15.
- [SPARK-44485] Optimalizált
TreeNode.generateTreeString
. - [SPARK-44504] A karbantartási feladat leállási hiba miatt törli a betöltött szolgáltatókat.
- [SPARK-44464] Az első oszlopértékként megadott
Null
kimeneti sorokhoz van javítvaapplyInPandasWithStatePythonRunner
. - Az operációs rendszer biztonsági frissítései.
- [SPARK-44485] Optimalizált
- 2023. július 27.
- Kijavítottunk egy hibát, amely
dbutils.fs.ls()
akkor lett visszaadvaINVALID_PARAMETER_VALUE.LOCATION_OVERLAP
, amikor olyan tárolási hely elérési útját kérték, amely ütközött más külső vagy felügyelt tárhellyel. - [SPARK-44199]
CacheManager
a továbbiakban nem frissíti feleslegesen.fileIndex
- Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely
- 2023. július 24.
- [SPARK-44136] Kijavítottunk egy hibát, amely miatt a StateManager a FlatMapGroupsWithStateExec illesztőprogram helyett a végrehajtóban materializálható.
- Az operációs rendszer biztonsági frissítései.
- 2023. június 23.
- Az operációs rendszer biztonsági frissítései.
- 2023. június 15.
- Fotonizált
approx_count_distinct
. - A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- [SPARK-43779]
ParseToDate
most betöltődikEvalMode
a főszálban. - [SPARK-40862] Nem aggregált albejegyzések támogatása a RewriteCorrelatedScalarSubquery szolgáltatásban
- [SPARK-43156][SPARK-43098] Kiterjesztett skaláris subquery count bug test with
decorrelateInnerQuery
off. - [SPARK-43098] Kijavítottuk a helyességi DARAB hibát, ha a skaláris alkérdezés tartalmaz egy csoportosítási záradékot
- Az operációs rendszer biztonsági frissítései.
- Fotonizált
- 2023. június 2.
- A JSON-elemző
failOnUnknownFields
módban elvet egy rekordotDROPMALFORMED
módban, és közvetlenülFAILFAST
módban meghiúsul. - Növelje a növekményes frissítések teljesítményét az Iceberg és a Parquet használatával
SHALLOW CLONE
. - Kijavítottunk egy hibát az Automatikus betöltőben, amelyben a különböző forrásfájlformátumok inkonzisztensek voltak, amikor a megadott séma nem tartalmazott következtetéses partíciókat. Ez a probléma váratlan hibákat okozhat a hiányzó oszlopokat tartalmazó fájlok olvasása során a késleltetett partíciós sémában.
- [SPARK-43404]Az azonosítóeltérési hiba elkerülése érdekében hagyja ki a RocksDB-állapottároló ugyanazon verziójához tartozó sst-fájl újbóli újrafelhasználását.
- [SPARK-43527] Javítva
catalog.listCatalogs
a PySparkban. - [SPARK-43413][11.3-13.0] Kijavítottuk
IN
a subqueryListQuery
nullability-t. - [SPARK-43340] Kijavítottuk a hiányzó verem nyomkövetési mezőjét az eseménynaplókban.
- A JSON-elemző
Databricks Runtime 10.4 LTS
Lásd: Databricks Runtime 10.4 LTS.
- 2023. november 29.
- [SPARK-45544] Integrált SSL-támogatás a
TransportContext
. - [SPARK-45859] Az UDF-objektumok
ml.functions
lusták. - [SPARK-43718] Kijavítottuk az illesztések kulcsainak nullhipotitását
USING
. - [SPARK-45730] Továbbfejlesztett időkorlátok a
ReloadingX509TrustManagerSuite
. - [SPARK-42205] A szakasz- és tevékenységindítási eseményekben eltávolított naplózási elemek.
- [SPARK-44846] Az összetett csoportosítási kifejezések el lettek távolítva a program után
RemoveRedundantAggregates
. - Az operációs rendszer biztonsági frissítései.
- [SPARK-45544] Integrált SSL-támogatás a
- 2023. november 14.
- [SPARK-45541] Hozzáadva
SSLFactory
. - [SPARK-45545]
SparkTransportConf
SSLOptions
a létrehozáskor örökli. - [SPARK-45427] RPC SSL-beállításokat adtunk hozzá az és
SparkTransportConf
aSSLOptions
. - [SPARK-45429] Segédosztályok hozzáadva az SSL RPC-kommunikációhoz.
- [SPARK-45584] Kijavítottuk a subquery-futtatási hibát a következővel
TakeOrderedAndProjectExec
: . - Visszaállítás [SPARK-33861].
- Az operációs rendszer biztonsági frissítései.
- [SPARK-45541] Hozzáadva
- 2023. október 24.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
ReloadingX509TrustManager
: . - Az operációs rendszer biztonsági frissítései.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
- 2023. október 13.
- [SPARK-45084]
StateOperatorProgress
a pontos, megfelelő shuffle partíciószám használatához. - [SPARK-45178] Ne használja a burkolót, hanem egyetlen köteget
Trigger.AvailableNow
futtasson nem támogatott forrásokkal. - Az operációs rendszer biztonsági frissítései.
- [SPARK-45084]
- 2023. szeptember 10.
- Egyéb javítások.
- 2023. augusztus 30.
- [SPARK-44818] Kijavítottuk az inicializálás előtt
taskThread
kiadott függőben lévő tevékenység megszakításának versenyét. - Az operációs rendszer biztonsági frissítései.
- [SPARK-44818] Kijavítottuk az inicializálás előtt
- 2023. augusztus 15.
- [SPARK-44504] A karbantartási feladat leállási hiba miatt törli a betöltött szolgáltatókat.
- [SPARK-43973] A strukturált streamelési felhasználói felület most már helyesen jelenik meg a sikertelen lekérdezésekben.
- Az operációs rendszer biztonsági frissítései.
- 2023. június 23.
- Az operációs rendszer biztonsági frissítései.
- 2023. június 15.
- A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- [SPARK-43098] Kijavítottuk a helyességi DARAB hibát, ha a skaláris alkérdezés tartalmaz egy csoportosítási záradékot
- [SPARK-40862] Nem aggregált albejegyzések támogatása a RewriteCorrelatedScalarSubquery szolgáltatásban
- [SPARK-43156][SPARK-43098] Kiterjesztett skaláris subquery count test with
decorrelateInnerQuery
off. - Az operációs rendszer biztonsági frissítései.
- 2023. június 2.
- A JSON-elemző
failOnUnknownFields
módban elvet egy rekordotDROPMALFORMED
módban, és közvetlenülFAILFAST
módban meghiúsul. - Kijavítottunk egy hibát a JSON által mentett adatelemzés során a megelőzés
UnknownFieldException
érdekében. - Kijavítottunk egy hibát az Automatikus betöltőben, amelyben a különböző forrásfájlformátumok inkonzisztensek voltak, amikor a megadott séma nem tartalmazott következtetéses partíciókat. Ez a probléma váratlan hibákat okozhat a hiányzó oszlopokat tartalmazó fájlok olvasása során a késleltetett partíciós sémában.
- [SPARK-43404] Az azonosítóeltérési hiba elkerülése érdekében hagyja ki a RocksDB-állapottároló ugyanazon verziójához tartozó sst-fájl újbóli újrafelhasználását.
- [SPARK-43413] Kijavítottuk
IN
az alkérdezésListQuery
nullképességét. - Az operációs rendszer biztonsági frissítései.
- A JSON-elemző
- 2023. május 17.
- A parquet-vizsgálatok mostantól hatékonyak az OOM-ekkel szemben, amikor a köteg méretének dinamikus módosításával kivételesen strukturált fájlokat vizsgálnak. A fájl metaadatait a rendszer a köteg méretének előzetes csökkentése érdekében elemzi, és a feladat újrapróbálkozásakor ismét csökkenti végleges biztonsági hálóként.
- [SPARK-41520] Faminta felosztása
AND_OR
a szétválasztandóAND
ésOR
a . - [SPARK-43190]
ListQuery.childOutput
most már konzisztens a másodlagos kimenettel. - Az operációs rendszer biztonsági frissítései.
- 2023. április 25.
- [SPARK-42928] Szinkronizálás.
resolvePersistentFunction
- Az operációs rendszer biztonsági frissítései.
- [SPARK-42928] Szinkronizálás.
- 2023. április 11.
- Kijavítottunk egy hibát, amely miatt az automatikus betöltő séma fejlődése végtelen feladathurkba léphet, amikor egy új oszlopot észlel egy beágyazott JSON-objektum sémájában.
- [SPARK-42937]
PlanSubqueries
mostantól igaz értékre van állítódvaInSubqueryExec#shouldBroadcast
. - [SPARK-42967] A SparkListenerTaskStart.stageAttemptId kijavítása, ha egy tevékenység a szakasz megszakítása után indul el.
- 2023. március 29.
- [SPARK-42668] Kivétel észlelése a tömörített stream HDFSStateStoreProvider leállítása közben
- [SPARK-42635] Javítsa ki a ...
- Az operációs rendszer biztonsági frissítései.
- 2023. március 14.
- [SPARK-41162] Anti- és semi-join javítása az összesítésekkel való önbeillesztéshez
- [SPARK-33206] Az indexgyorsítótár súlyának kiszámítása kis indexfájlok esetében
- [SPARK-42484] Javítottuk a
UnsafeRowUtils
hibaüzenetet - Egyéb javítások.
- 2023. február 28.
- Támogatja a yyyy-MM-dd date_format által létrehozott oszlopot. Ez a módosítás támogatja a yyyy-MM-dd partíciómetszetét date_format generált oszlopokban.
- A felhasználók mostantól a Databricks Runtime 9.1 LTS-es vagy újabb verziójával olvashatnak és írhatnak bizonyos Delta-táblákat, amelyekhez az Olvasó 3. és a 7. íróverzió szükséges. A sikeresség érdekében a táblák protokolljában felsorolt táblafunkciókat a Databricks Runtime jelenlegi verziójának kell támogatnia.
- Támogatja a yyyy-MM-dd date_format által létrehozott oszlopot. Ez a módosítás támogatja a yyyy-MM-dd partíciómetszetét date_format generált oszlopokban.
- Az operációs rendszer biztonsági frissítései.
- 2023. február 16.
- [SPARK-30220] A Szűrőcsomóponton kívüli Létező/In al lekérdezések használatának engedélyezése
- Az operációs rendszer biztonsági frissítései.
- 2023. január 31.
- A JDBC-táblák táblázattípusai alapértelmezés szerint KÜLSŐek.
- 2023. január 18.
- Az Azure Synapse-összekötő leíróbb hibaüzenetet ad vissza, ha egy oszlopnév érvénytelen karaktereket, például szóközöket vagy pontosvesszőket tartalmaz. Ilyen esetekben a következő üzenet jelenik meg:
Azure Synapse Analytics failed to run the JDBC query produced by the connector. Check column names do not include not valid characters such as ';' or white space
. - [SPARK-38277] Írási köteg törlése a RocksDB állapottároló véglegesítése után
- [SPARK-41199] Metrikaproblémák kijavítása A DSv1 streamforrás és a DSv2 streamforrás együttes használata esetén
- [SPARK-41198] Metrikák javítása cTE- és DSv1-streamforrással rendelkező streamelési lekérdezésekben
- [SPARK-41339] Zárja be és hozza létre újra a RocksDB írási köteget a törlés helyett
- [SPARK-41732] Famintás alapú metszés alkalmazása a SessionWindowing szabályhoz
- Az operációs rendszer biztonsági frissítései.
- Az Azure Synapse-összekötő leíróbb hibaüzenetet ad vissza, ha egy oszlopnév érvénytelen karaktereket, például szóközöket vagy pontosvesszőket tartalmaz. Ilyen esetekben a következő üzenet jelenik meg:
- 2022. november 29.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A szabad terület kezelésének szabályozásához a következő lehetőségek lettek hozzáadva:
csvignoreleadingwhitespace
, ha betrue
van állítva, eltávolítja a kezdő szóközt az értékekből az írások során, amikortempformat
a be van állítvaCSV
vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.csvignoretrailingwhitespace
beállítás esetén eltávolítja atrue
záró szóközt az értékekből az írások során, hatempformat
a beállításCSV
értéke vagyCSV GZIP
értéke . A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.
- Kijavítottunk egy hibát az automatikus betöltő JSON-elemzésével kapcsolatban, amikor az összes oszlop sztringként maradt (
cloudFiles.inferColumnTypes
nincs beállítva vagy beállítvafalse
) és a JSON beágyazott objektumokat tartalmazott. - Az operációs rendszer biztonsági frissítései.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A szabad terület kezelésének szabályozásához a következő lehetőségek lettek hozzáadva:
- 2022. november 15.
- Az Apache commons-text frissítése 1.10.0-ra.
- [SPARK-40646] A szerkezetek, térképek és tömbök JSON-elemzése kijavítva, így ha egy rekord egy része nem egyezik a sémával, a rekord többi része továbbra is helyesen elemezhető a null értékek visszaadása helyett. A továbbfejlesztett viselkedésre való bejelentkezéshez állítsa be
spark.sql.json.enablePartialResults
a következőttrue
: . A jelölő alapértelmezés szerint ki van kapcsolva az eredeti viselkedés megőrzése érdekében. - [SPARK-40292] Oszlopnevek javítása a függvényben
arrays_zip
, ha a tömbök beágyazott szerkezetekből vannak hivatkozva - Az operációs rendszer biztonsági frissítései.
- 2022. november 1.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
_change_type
, de az adatcsatorna módosítása ki lett kapcsolva a táblán, akkor az oszlopban lévő adatok futáskorMERGE
helytelenül töltődnek ki NULL értékekkel. - Kijavítottunk egy hibát az automatikus betöltővel kapcsolatban, amely miatt egy fájl duplikálható ugyanabban a mikrokötegben, ha
allowOverwrites
engedélyezve van - [SPARK-40697] Írásvédett karakterpárna hozzáadása külső adatfájlok lefedéséhez
- [SPARK-40596] A ExecutorDecommission feltöltése üzenetekkel a ExecutorDecommissionInfo alkalmazásban
- Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
- 2022. október 18.
- Az operációs rendszer biztonsági frissítései.
- 2022. október 5.
- [SPARK-40468] Az oszlopmetszet kijavítása a CSV-ben, ha
_corrupt_record
ki van választva. - Az operációs rendszer biztonsági frissítései.
- [SPARK-40468] Az oszlopmetszet kijavítása a CSV-ben, ha
- 2022. szeptember 22.
- A felhasználók a spark.conf.set(
spark.databricks.io.listKeysWithPrefix.azure.enabled
,true
) beállításával újra engedélyezhetik az Automatikus betöltő beépített listáját az ADLS Gen2-en. A beépített lista korábban teljesítményproblémák miatt ki lett kapcsolva, de az ügyfelek számára megnövekedett tárolási költségekhez vezethetett. - [SPARK-40315] HashCode() hozzáadása a ArrayBasedMapData literálhoz
- [SPARK-40213] AsCII-értékek konvertálásának támogatása latin-1 karakter esetén
- [SPARK-40380] Az InvokeLike konstans összecsukásának javítása a tervbe beágyazott nem szerializálható literálok elkerülése érdekében
- [SPARK-38404] A CTE felbontásának javítása, ha egy beágyazott CTE külső CTE-ra hivatkozik
- [SPARK-40089] Néhány decimális típus rendezésének javítása
- [SPARK-39887] A RemoveRedundantAliases-nek meg kell őriznie azokat az aliasokat, amelyek egyedivé teszik a vetítési csomópontok kimenetét
- A felhasználók a spark.conf.set(
- 2022. szeptember 6.
- [SPARK-40235] Megszakítható zárolás használata szinkronizált helyett a Executor.updateDependencies() alkalmazásban
- [SPARK-40218] A CSOPORTOSÍTÁSI CSOPORTOKnak meg kell őriznie a csoportosítási oszlopokat
- [SPARK-39976] A ArrayIntersectnek helyesen kell kezelnie a null értéket a bal oldali kifejezésben
- [SPARK-40053] Hozzáadás
assume
a Python futtatókörnyezetet igénylő dinamikus megszakítási esetekhez - [SPARK-35542] Javítás: A splitsArray, inputCols és outputCols paraméterekkel rendelkező több oszlophoz létrehozott gyűjtő nem tölthető be a mentés után
- [SPARK-40079] Imputer inputCols-ellenőrzés hozzáadása üres bemeneti esethez
- 2022. augusztus 24.
- [SPARK-39983] Ne gyorsítótárazza a nemializált szórási kapcsolatokat az illesztőprogramon
- [SPARK-39775] Alapértelmezett értékek érvényesítésének letiltása az Avro-sémák elemzésekor
- [SPARK-39962] Vetítés alkalmazása üres csoportattribútumok esetén
- [SPARK-37643] ha a charVarcharAsString értéke igaz, a karakter adattípus-predikátum-lekérdezés esetében kihagyja az rpadding szabályt
- Az operációs rendszer biztonsági frissítései.
- 2022. augusztus 9.
- [SPARK-39847] A RocksDBLoader.loadLibrary() versenyállapotának javítása, ha a hívó szál megszakad
- [SPARK-39731] Kijavítottuk a CSV- és JSON-adatforrásokban a dátumok "yyyyyMMdd" formátumban történő elemzésekor a JAVÍTOTT időelemző házirenddel kapcsolatos problémát
- Az operációs rendszer biztonsági frissítései.
- 2022. július 27.
- [SPARK-39625] Dataset.as(StructType) hozzáadása
- [SPARK-39689]Két karakter támogatása
lineSep
a CSV-adatforrásban - [SPARK-39104] InMemoryRelation#isCachedColumnBuffersLoaded kell szálbiztos
- [SPARK-39570] A beágyazott táblázatnak engedélyeznie kell az aliassal rendelkező kifejezéseket
- [SPARK-39702] A TransportCipher$EncryptedMessage memóriaterhelésének csökkentése megosztott byteRawChannel használatával
- [SPARK-39575] Add ByteBuffer#rewind after ByteBuffer#get in AvroDeserializer
- [SPARK-39476] Tiltsa le a unwrap cast optimalizálást hosszúról lebegőpontosra/ dupla vagy egész számból lebegőpontosra történő öntéskor
- [SPARK-38868] A külső illesztések optimalizálása során ne propagálja a szűrők predikátumából származó kivételeket
- Az operációs rendszer biztonsági frissítései.
- 2022. július 20.
- A Delta MERGE művelet eredményeinek konzisztenssé tétele, ha a forrás nem determinisztikus.
- [SPARK-39355] Az egyetlen oszlop idézve hozza létre az UnresolvedAttribute függvényt
- [SPARK-39548] A CreateView parancs ablak-záradék lekérdezéssel nem található ablakdefinícióval kapcsolatos probléma
- [SPARK-39419] A ArraySort javítása kivétel kivetéséhez, ha az összehasonlító null értéket ad vissza
- Kikapcsolta az Automatikus betöltő beépített felhőalapú API-k használatát az Azure címtárlistáihoz.
- Az operációs rendszer biztonsági frissítései.
- 2022. július 5.
- [SPARK-39376] Duplikált oszlopok elrejtése az alquery alias csillagbővítésében a NATURAL/USING JOIN elemből
- Az operációs rendszer biztonsági frissítései.
- 2022. június 15.
- [SPARK-39283] A TaskMemoryManager és a UnsafeExternalSorter.SpillableIterator közötti holtpont javítása
- [SPARK-39285] A Spark nem ellenőrizheti a mezőneveket fájlok olvasásakor
- [SPARK-34096] Jobb teljesítmény nth_value null értékek figyelmen kívül hagyása eltolásos ablakban
- [SPARK-36718] A CollapseProject beadásának
isExtractOnly
javítása
- 2022. június 2.
- [SPARK-39093] Ne használjon kódösszeállítási hibát, ha az évenkénti vagy a napi időintervallumokat elválasztja egy integráltól
- [SPARK-38990] A NullPointerException elkerülése date_trunc/trunc formátum kötött hivatkozásként való kiértékelésekor
- Az operációs rendszer biztonsági frissítései.
- 2022. május 18.
- Kijavít egy lehetséges beépített memóriaszivárgást az Automatikus betöltőben.
- [SPARK-38918] A beágyazott oszlopmetszetnek kiszűrnie kell azokat az attribútumokat, amelyek nem tartoznak az aktuális relációhoz
- [SPARK-37593] Az alapértelmezett oldalméret csökkentése LONG_ARRAY_OFFSET G1GC és ON_HEAP használata esetén
- [SPARK-39084] A df.rdd.isEmpty() javítása a TaskContext használatával az iterátor leállításához a tevékenység befejezésekor
- [SPARK-32268] ColumnPruning hozzáadása az injectBloomFilterben
- [SPARK-38974] Regisztrált függvények szűrése adott adatbázisnévvel a listafüggvényekben
- [SPARK-38931] Gyökér dfs könyvtár létrehozása a RocksDBFileManagerhez ismeretlen számú kulccsal az 1. ellenőrzőponton
- Az operációs rendszer biztonsági frissítései.
- 2022. április 19.
- A Java AWS SDK az 1.11.655-ös verzióról 1.12.1899-re frissült.
- Kijavítottunk egy hibát, amely miatt a jegyzetfüzet-hatókörű kódtárak nem működnek kötegelt streamelési feladatokban.
- [SPARK-38616] SQL-lekérdezés szövegének nyomon követése a Catalyst TreeNode-ban
- Az operációs rendszer biztonsági frissítései.
- 2022. április 6.
- Ezzel a kiadással a következő Spark SQL-függvények érhetők el:
timestampadd()
ésdateadd()
: Adjon hozzá egy időtartamot egy adott egységben egy időbélyeg-kifejezéshez.timestampdiff()
ésdatediff()
: Kiszámítja a két időbélyeg-kifejezés közötti időkülönbséget egy adott egységben.
- A Parquet-MR 1.12.2-re lett frissítve
- Továbbfejlesztett támogatás a parquet-fájlok átfogó sémáihoz
- [SPARK-38631] Java-alapú implementációt használ az Utils.unpack kicsomagolásának feloldásához
- [SPARK-38509][SPARK-38481] Cherry-pick három
timestmapadd/diff
változás. - [SPARK-38523] A CSV sérült rekordoszlopára hivatkozó javítás
- [SPARK-38237] Teljes
ClusteredDistribution
fürtözési kulcsok megkövetelése - [SPARK-38437] A datetime elenyenes szerializálása az adatforrásból
- [SPARK-38180] Biztonságos felfelé öntött kifejezések engedélyezése korrelált egyenlőségi predikátumokban
- [SPARK-38155] Eltérő aggregátumok kizárása oldalirányú al lekérdezésekben nem támogatott predikátumokkal
- Az operációs rendszer biztonsági frissítései.
- Ezzel a kiadással a következő Spark SQL-függvények érhetők el:
Databricks Runtime 9.1 LTS
Lásd: Databricks Runtime 9.1 LTS.
- 2023. november 29.
- [SPARK-45859] Az UDF-objektumok
ml.functions
lusták. - [SPARK-45544] Integrált SSL-támogatás a
TransportContext
. - [SPARK-45730] Továbbfejlesztett időkorlátok a
ReloadingX509TrustManagerSuite
. - Az operációs rendszer biztonsági frissítései.
- [SPARK-45859] Az UDF-objektumok
- 2023. november 14.
- [SPARK-45545]
SparkTransportConf
SSLOptions
a létrehozáskor örökli. - [SPARK-45429] Segédosztályok hozzáadva az SSL RPC-kommunikációhoz.
- [SPARK-45427] RPC SSL-beállításokat adtunk hozzá az és
SparkTransportConf
aSSLOptions
. - [SPARK-45584] Kijavítottuk a subquery-futtatási hibát a következővel
TakeOrderedAndProjectExec
: . - [SPARK-45541] Hozzáadva
SSLFactory
. - [SPARK-42205] A szakasz- és tevékenységindítási eseményekben eltávolított naplózási elemek.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-45545]
- 2023. október 24.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
ReloadingX509TrustManager
: . - Az operációs rendszer biztonsági frissítései.
- [SPARK-45426] Támogatás hozzáadva a következőhöz
- 2023. október 13.
- Az operációs rendszer biztonsági frissítései.
- 2023. szeptember 10.
- Egyéb javítások.
- 2023. augusztus 30.
- Az operációs rendszer biztonsági frissítései.
- 2023. augusztus 15.
- Az operációs rendszer biztonsági frissítései.
- 2023. június 23.
- A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- Az operációs rendszer biztonsági frissítései.
- 2023. június 15.
- [SPARK-43098] Kijavítottuk a helyességi DARAB hibát, ha a skaláris alkérdezés tartalmaz egy csoportosítási záradékot
- [SPARK-43156][SPARK-43098] A skaláris részqueryk számának tesztelésének
decorrelateInnerQuery
kiterjesztése kikapcsolva. - [SPARK-40862] Nem aggregált albejegyzések támogatása a RewriteCorrelatedScalarSubquery szolgáltatásban
- Az operációs rendszer biztonsági frissítései.
- 2023. június 2.
- A JSON-elemző
failOnUnknownFields
módban elvet egy rekordotDROPMALFORMED
módban, és közvetlenülFAILFAST
módban meghiúsul. - Kijavítottunk egy hibát a JSON által mentett adatelemzés során a megelőzés
UnknownFieldException
érdekében. - Kijavítottunk egy hibát az Automatikus betöltőben, amelyben a különböző forrásfájlformátumok inkonzisztensek voltak, amikor a megadott séma nem tartalmazott következtetéses partíciókat. Ez a probléma váratlan hibákat okozhat a hiányzó oszlopokat tartalmazó fájlok olvasása során a késleltetett partíciós sémában.
- [SPARK-37520] A és
endswith()
a sztringfüggvényekstartswith()
hozzáadása - [SPARK-43413] Kijavítottuk
IN
az alkérdezésListQuery
nullképességét. - Az operációs rendszer biztonsági frissítései.
- A JSON-elemző
- 2023. május 17.
- Az operációs rendszer biztonsági frissítései.
- 2023. április 25.
- Az operációs rendszer biztonsági frissítései.
- 2023. április 11.
- Kijavítottunk egy hibát, amely miatt az automatikus betöltő séma fejlődése végtelen feladathurkba léphet, amikor egy új oszlopot észlel egy beágyazott JSON-objektum sémájában.
- [SPARK-42967] A SparkListenerTaskStart.stageAttemptId kijavítása, ha egy tevékenység a szakasz megszakítása után indul el.
- 2023. március 29.
- Az operációs rendszer biztonsági frissítései.
- 2023. március 14.
- [SPARK-42484] Továbbfejlesztett hibaüzenet a következőhöz
UnsafeRowUtils
: . - Egyéb javítások.
- [SPARK-42484] Továbbfejlesztett hibaüzenet a következőhöz
- 2023. február 28.
- A felhasználók mostantól a Databricks Runtime 9.1 LTS-es vagy újabb verziójával olvashatnak és írhatnak bizonyos Delta-táblákat, amelyekhez az Olvasó 3. és a 7. íróverzió szükséges. A sikeresség érdekében a táblák protokolljában felsorolt táblafunkciókat a Databricks Runtime jelenlegi verziójának kell támogatnia.
- Az operációs rendszer biztonsági frissítései.
- 2023. február 16.
- Az operációs rendszer biztonsági frissítései.
- 2023. január 31.
- A JDBC-táblák táblázattípusai alapértelmezés szerint KÜLSŐek.
- 2023. január 18.
- Az operációs rendszer biztonsági frissítései.
- 2022. november 29.
- Kijavítottunk egy hibát az automatikus betöltő JSON-elemzésével kapcsolatban, amikor az összes oszlop sztringként maradt (
cloudFiles.inferColumnTypes
nincs beállítva vagy beállítvafalse
) és a JSON beágyazott objektumokat tartalmazott. - Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát az automatikus betöltő JSON-elemzésével kapcsolatban, amikor az összes oszlop sztringként maradt (
- 2022. november 15.
- Az Apache commons-text frissítése 1.10.0-ra.
- Az operációs rendszer biztonsági frissítései.
- Egyéb javítások.
- 2022. november 1.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
_change_type
, de az adatcsatorna módosítása ki lett kapcsolva a táblán, akkor az oszlopban lévő adatok futáskorMERGE
helytelenül töltődnek ki NULL értékekkel. - Kijavítottunk egy hibát az automatikus betöltővel kapcsolatban, amely miatt egy fájl duplikálható ugyanabban a mikrokötegben, ha
allowOverwrites
engedélyezve van - [SPARK-40596] A ExecutorDecommission feltöltése üzenetekkel a ExecutorDecommissionInfo alkalmazásban
- Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
- 2022. október 18.
- Az operációs rendszer biztonsági frissítései.
- 2022. október 5.
- Egyéb javítások.
- Az operációs rendszer biztonsági frissítései.
- 2022. szeptember 22.
- A felhasználók a spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") beállítással újra engedélyezhetik az ADLS Gen2 automatikus betöltőjének beépített listáját. A beépített lista korábban teljesítményproblémák miatt ki lett kapcsolva, de az ügyfelek számára megnövekedett tárolási költségekhez vezethetett.
- [SPARK-40315] HashCode() hozzáadása a ArrayBasedMapData literálhoz
- [SPARK-40089] Néhány decimális típus rendezésének javítása
- [SPARK-39887] A RemoveRedundantAliases-nek meg kell őriznie azokat az aliasokat, amelyek egyedivé teszik a vetítési csomópontok kimenetét
- 2022. szeptember 6.
- [SPARK-40235] Megszakítható zárolás használata szinkronizált helyett a Executor.updateDependencies() alkalmazásban
- [SPARK-35542] Javítás: A splitsArray, inputCols és outputCols paraméterekkel rendelkező több oszlophoz létrehozott gyűjtő nem tölthető be a mentés után
- [SPARK-40079] Imputer inputCols-ellenőrzés hozzáadása üres bemeneti esethez
- 2022. augusztus 24.
- [SPARK-39666] A UnsafeProjection.create használata a ExpressionEncoderben való tisztelethez
spark.sql.codegen.factoryMode
- [SPARK-39962] Vetítés alkalmazása üres csoportattribútumok esetén
- Az operációs rendszer biztonsági frissítései.
- [SPARK-39666] A UnsafeProjection.create használata a ExpressionEncoderben való tisztelethez
- 2022. augusztus 9.
- Az operációs rendszer biztonsági frissítései.
- 2022. július 27.
- A Delta MERGE művelet eredményeinek konzisztenssé tétele, ha a forrás nem determinisztikus.
- [SPARK-39689] Két karakter
lineSep
támogatása a CSV-adatforrásban - [SPARK-39575]
ByteBuffer#get
Utána hozzáadvaByteBuffer#rewind
a következőbeAvroDeserializer
: . - [SPARK-37392] Kijavítottuk a katalizátor-optimalizáló teljesítményhibát.
- Az operációs rendszer biztonsági frissítései.
- 2022. július 13.
- [SPARK-39419]
ArraySort
kivételt eredményez, ha az összehasonlító null értéket ad vissza. - Kikapcsolta az Automatikus betöltő beépített felhőalapú API-k használatát az Azure címtárlistáihoz.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-39419]
- 2022. július 5.
- Az operációs rendszer biztonsági frissítései.
- Egyéb javítások.
- 2022. június 15.
- [SPARK-39283] Javítsa ki a holtpontot a kettő között és
UnsafeExternalSorter.SpillableIterator
közöttTaskMemoryManager
.
- [SPARK-39283] Javítsa ki a holtpontot a kettő között és
- 2022. június 2.
- [SPARK-34554] Implementálja a metódust a
copy()
következőbenColumnarMap
: . - Az operációs rendszer biztonsági frissítései.
- [SPARK-34554] Implementálja a metódust a
- 2022. május 18.
- Kijavítottunk egy lehetséges beépített memóriaszivárgást az Automatikus betöltőben.
- Frissítse az AWS SDK 1.11.655-ös verzióját 1.11.678-ra.
- [SPARK-38918] A beágyazott oszlopmetszetnek kiszűrnie kell azokat az attribútumokat, amelyek nem tartoznak az aktuális relációhoz
- [SPARK-39084] Javítás
df.rdd.isEmpty()
az iterátor feladatvégzésére valóTaskContext
leállításával - Az operációs rendszer biztonsági frissítései.
- 2022. április 19.
- Az operációs rendszer biztonsági frissítései.
- Egyéb javítások.
- 2022. április 6.
- [SPARK-38631] Java-alapú implementációt használ az Utils.unpack kicsomagolásának feloldásához
- Az operációs rendszer biztonsági frissítései.
- 2022. március 22.
- Módosította a jegyzetfüzetek aktuális munkakönyvtárát a magas egyidejűségi fürtökön, és a táblahozzáférés-vezérlés vagy a hitelesítő adatok átengedése engedélyezve van a felhasználó kezdőlapján. Korábban az active directory volt
/databricks/driver
. - [SPARK-38437] A datetime elenyenes szerializálása az adatforrásból
- [SPARK-38180] Biztonságos felfelé öntött kifejezések engedélyezése korrelált egyenlőségi predikátumokban
- [SPARK-38155] Eltérő aggregátumok kizárása oldalirányú al lekérdezésekben nem támogatott predikátumokkal
- [SPARK-27442] Eltávolított egy jelölőnégyzetet, amikor adatokat olvas vagy ír egy parkettán.
- Módosította a jegyzetfüzetek aktuális munkakönyvtárát a magas egyidejűségi fürtökön, és a táblahozzáférés-vezérlés vagy a hitelesítő adatok átengedése engedélyezve van a felhasználó kezdőlapján. Korábban az active directory volt
- 2022. március 14.
- [SPARK-38236] A create/alter táblában megadott abszolút fájlelérési útvonalak relatívként lesznek kezelve
- [SPARK-34069] Megszakíthatja a tevékenységszálat, ha a helyi tulajdonság
SPARK_JOB_INTERRUPT_ON_CANCEL
értéke igaz.
- 2022. február 23.
- [SPARK-37859] A Spark 3.2-vel JDBC-vel létrehozott SQL-táblák nem olvashatók.
- 2022. február 8.
- [SPARK-27442] Eltávolított egy jelölőnégyzetet, amikor adatokat olvas vagy ír egy parkettán.
- Az operációs rendszer biztonsági frissítései.
- 2022. február 1.
- Az operációs rendszer biztonsági frissítései.
- 2022. január 26.
- Kijavítottunk egy hibát, amely miatt a Delta-táblák egyidejű tranzakciói bizonyos ritka feltételek mellett nem szerializálható sorrendben véglegesíthetők.
- Kijavítottunk egy hibát, amely miatt a
OPTIMIZE
parancs meghiúsulhatott, amikor az ANSI SQL-dialektus engedélyezve lett.
- 2022. január 19.
- Kisebb javítások és biztonsági fejlesztések.
- Az operációs rendszer biztonsági frissítései.
- 2021. november 4.
- Kijavítottunk egy hibát, amely miatt a strukturált streamek meghiúsulhattak egy
ArrayIndexOutOfBoundsException
. - Kijavítottunk egy olyan versenyfeltételt, amely egy IOException-hez hasonló
java.io.IOException: No FileSystem for scheme
lekérdezési hibát okozhat, vagy amely miatt a módosításoksparkContext.hadoopConfiguration
nem lépnek érvénybe a lekérdezésekben. - Az Apache Spark Connector for Delta Sharing 0.2.0-ra lett frissítve.
- Kijavítottunk egy hibát, amely miatt a strukturált streamek meghiúsulhattak egy
- 2021. október 20.
- A BigQuery-összekötő 0.18.1-ről 0.22.2-re frissült. Ez támogatja a BigNumeric típust.
Databricks Runtime 13.0 (EoS)
Lásd: Databricks Runtime 13.0 (EoS).
2023. október 13.
- A Snowflake-jdbc függőség 3.13.29-ről 3.13.33-ra frissült.
- [SPARK-42553][SQL] Győződjön meg róla, hogy intervallum után legalább egy időegységet kell használnia.
- [SPARK-45178] A burkoló használata helyett egy köteg futtatására
Trigger.AvailableNow
való visszalépés nem támogatott forrásokkal. - [SPARK-44658][CORE]
ShuffleStatus.getMapStatus
a függvény ahelyett,None
hogy a .-tSome(null)
adja vissza. - [SPARK-42205][CORE] Távolítsa el az Accumulables naplózását a Tevékenység/Szakasz kezdési eseményekben a következőben
JsonProtocol
: . - Az operációs rendszer biztonsági frissítései.
2023. szeptember 12.
- [SPARK-44485][SQL] Optimalizálás
TreeNode.generateTreeString
. - [SPARK-44718][SQL] A
ColumnVector
memóriamód alapértelmezett konfigurációjának egyeztetése a konfiguráció értékévelOffHeapMemoryMode
. - Egyéb hibajavítások.
- [SPARK-44485][SQL] Optimalizálás
2023. augusztus 30.
- [SPARK-44818][Backport] Kijavítottuk az inicializálás előtt
taskThread
kiadott függőben lévő tevékenység megszakításának versenyét. - [SPARK-44714] Az LCA-feloldás egyszerű korlátozása a lekérdezésekkel kapcsolatban.
- [SPARK-44245][PYTHON]
pyspark.sql.dataframe sample()
A doctests mostantól csak szemléltető jellegű. - [SPARK-44871][11.3-13.0] [SQL] Rögzített
percentile_disc
viselkedés. - Az operációs rendszer biztonsági frissítései.
- [SPARK-44818][Backport] Kijavítottuk az inicializálás előtt
2023. augusztus 15.
- [SPARK-44643][SQL] [PYTHON] Javítás
Row.__repr__
, ha a sor üres. - [SPARK-44504][Backport] A karbantartási feladat leállási hiba miatt törli a betöltött szolgáltatókat.
- [SPARK-44479][CONNECT] [PYTHON] Kijavítottuk
protobuf
az átalakítást üres szerkezettípusból. - [SPARK-44464][SS] Az első oszlopértékként megadott
Null
kimeneti sorokhoz van javítvaapplyInPandasWithStatePythonRunner
. - Egyéb hibajavítások.
- [SPARK-44643][SQL] [PYTHON] Javítás
2023. július 29.
- Kijavítottunk egy hibát, amely
dbutils.fs.ls()
akkor lett visszaadvaINVALID_PARAMETER_VALUE.LOCATION_OVERLAP
, amikor egy olyan tárolási hely elérési útját kérték, amely ütközött más külső vagy felügyelt tárhellyel. - [SPARK-44199]
CacheManager
a továbbiakban nem frissíti feleslegesen.fileIndex
- Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely
2023. július 24.
- [SPARK-44337][PROTOBUF] Kijavítottunk egy hibát, amely miatt bármely mező
Any.getDefaultInstance
elemzési hibákat okozott. - [SPARK-44136] [SS] Kijavítottunk egy hibát, amely
StateManager
miatt a rendszer a végrehajtóban valósult meg az illesztő helyett.FlatMapGroupsWithStateExec
- Visszaállítás [SPARK-42323][SQL] Rendeljen hozzá nevet
_LEGACY_ERROR_TEMP_2332
. - Az operációs rendszer biztonsági frissítései.
- [SPARK-44337][PROTOBUF] Kijavítottunk egy hibát, amely miatt bármely mező
2023. június 23.
- Az operációs rendszer biztonsági frissítései.
2023. június 15.
- Fotonizált
approx_count_distinct
. - A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- [SPARK-43156][SPARK-43098][SQL] Skaláris subquery count bug test kiterjesztése a decorrelateInnerQuery letiltva
- [SPARK-43779][SQL]
ParseToDate
most betöltődikEvalMode
a főszálban. - [SPARK-42937][SQL]
PlanSubqueries
igaz értékre kell állítaniInSubqueryExec#shouldBroadcast
- Az operációs rendszer biztonsági frissítései.
- Fotonizált
2023. június 2.
- A JSON-elemző
failOnUnknownFields
módban elvet egy rekordotDROPMALFORMED
módban, és közvetlenülFAILFAST
módban meghiúsul. - A növekményes frissítés teljesítményének javítása Iceberg és Parquet használatával
SHALLOW CLONE
. - Kijavítottunk egy hibát az Automatikus betöltőben, amelyben a különböző forrásfájlformátumok inkonzisztensek voltak, amikor a megadott séma nem tartalmazott következtetéses partíciókat. Ez a probléma váratlan hibákat okozhat a hiányzó oszlopokat tartalmazó fájlok olvasása során a késleltetett partíciós sémában.
- [SPARK-43404][Backport] Az azonosítók eltérésének elkerülése érdekében hagyja ki az sst-fájl újbóli újrafelhasználását a RocksDB-állapottároló ugyanazon verziójához.
- [SPARK-43340][CORE] Kijavítottuk a hiányzó verem nyomkövetési mezőjét az eseménynaplókban.
- [SPARK-43300][CORE]
NonFateSharingCache
Burkoló a Guava Cache-hez. - [SPARK-43378][CORE] A streamobjektumok megfelelő bezárása a következőben:
deserializeFromChunkedBuffer
. - [SPARK-16484][SQL] Használjon 8 bites regisztereket a DataSketches-eknek való ábrázoláshoz.
- [SPARK-43522][SQL] Kijavítottuk a tömboszlop nevének tömbindexel való létrehozását.
- [SPARK-43413][11.3-13.0] [SQL] Kijavítottuk
IN
az alkérdezésListQuery
nullképességét. - [SPARK-43043][CORE] Jobb
MapOutputTracker.updateMapOutput
teljesítmény. - [SPARK-16484][SQL] A DataSketches HllSketch támogatása hozzáadva.
- [SPARK-43123][SQL] A belső mező metaadatai már nem szivárognak ki a katalógusokbe.
- [SPARK-42851][SQL] Őrzés
EquivalentExpressions.addExpr()
asupportedExpression()
. - [SPARK-43336][SQL] Az időzónák közötti
Timestamp
öntéshez időzónáraTimestampNTZ
van szükség. - [SPARK-43286][SQL] Frissített
aes_encrypt
CBC mód véletlenszerű IV-k létrehozásához. - [SPARK-42852][SQL] A kapcsolódó módosítások visszaállítása
NamedLambdaVariable
innen:EquivalentExpressions
. - [SPARK-43541][SQL] Propagálja az összes
Project
címkét a kifejezések és a hiányzó oszlopok feloldása során. - [SPARK-43527][PYTHON] Javítva
catalog.listCatalogs
a PySparkban. - Az operációs rendszer biztonsági frissítései.
- A JSON-elemző
2023. május 31.
- A Unity Katalógusban regisztrált Delta-táblák alapértelmezett optimalizált írási támogatása kibővült
CTAS
a particionált táblákra vonatkozó utasításokra ésINSERT
műveletekre. Ez a viselkedés az SQL-raktárak alapértelmezett értékéhez igazodik. Lásd: Optimalizált írások a Delta Lake-hez az Azure Databricksben.
- A Unity Katalógusban regisztrált Delta-táblák alapértelmezett optimalizált írási támogatása kibővült
2023. május 17.
- Kijavítottunk egy regressziót, ahol
_metadata.file_path
helytelenül_metadata.file_name
formázott sztringeket ad vissza. Most például egy szóközökkel rendelkező elérési út jelenik megs3://test-bucket/some%20directory/some%20data.csv
helyettünks3://test-bucket/some directory/some data.csv
. - A parquet-vizsgálatok mostantól hatékonyak az OOM-ekkel szemben, amikor a köteg méretének dinamikus módosításával kivételesen strukturált fájlokat vizsgálnak. A fájl metaadatait a rendszer a köteg méretének előzetes csökkentése érdekében elemzi, és a feladat újrapróbálkozásakor ismét csökkenti végleges biztonsági hálóként.
-
- Ha egy Avro-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns\
olvastak afailOnUnknownFields\
sémafejlődési módban, a különböző adattípusokkal rendelkező oszlopok ahelyett, hogy hibaüzenetet adnánaknull\
, amely szerint a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn\
lehetőséget.
- Ha egy Avro-fájlt csak a beállítással vagy az Automatikus betöltővel
- Az Automatikus betöltő mostantól a következőket végzi el.
-
- Helyesen olvas, és már nem menti a típusokat
Integer
,Short
Byte
ha az egyik adattípus meg van adva, de az Avro-fájl a másik két típus egyikét javasolja.
- Helyesen olvas, és már nem menti a típusokat
-
- Megakadályozza az intervallumtípusok dátumként vagy időbélyegként való olvasását, hogy elkerülje a sérült dátumok beolvasását.
-
- Megakadályozza a kisebb pontosságú olvasási
Decimal
típusokat.
- Megakadályozza a kisebb pontosságú olvasási
- [SPARK-43172] [CONNECT] A Spark Connect-ügyfél gazdagépét és jogkivonatát teszi elérhetővé.
- [SPARK-43293][SQL]
__qualified_access_only
a rendszer a normál oszlopokban figyelmen kívül hagyja. - [SPARK-43098][SQL] Kijavítottuk a helyességi
COUNT
hibát, ha a skaláris alkérdezés záradék szerint van csoportosítva. - [SPARK-43085][SQL] Többrészes táblanevek oszlop-hozzárendelésének
DEFAULT
támogatása. - [SPARK-43190][SQL]
ListQuery.childOutput
most már konzisztens a másodlagos kimenettel. - [SPARK-43192] [CONNECT] Eltávolítva a felhasználói ügynök karakterkészletének ellenőrzése.
- Kijavítottunk egy regressziót, ahol
2023. április 25.
- Módosíthatja a Delta-táblázatokat, hogy támogatást adjon a Delta-tábla funkcióhoz a következő használatával
DeltaTable.addFeatureSupport(feature_name)
: . - A
SYNC
parancs mostantól támogatja az örökölt adatforrás-formátumokat. - Kijavítottunk egy hibát, amely miatt a Python-formázó használata más parancsok futtatása előtt egy Python-jegyzetfüzetben azt okozhatta, hogy a jegyzetfüzet elérési útja hiányzik
sys.path.
- Az Azure Databricks mostantól támogatja a Delta-táblák oszlopainak alapértelmezett értékeinek megadását.
INSERT
,UPDATE
,DELETE
ésMERGE
a parancsok hivatkozhatnak az oszlopok alapértelmezett értékére az explicitDEFAULT
kulcsszó használatával. AINSERT
céltáblánál kevesebb oszlopot tartalmazó explicit listával rendelkező parancsok esetében a megfelelő oszlop alapértelmezett értékeit a rendszer a többi oszlopra cseréli (vagyNULL
ha nincs megadva alapértelmezett érték).
- Módosíthatja a Delta-táblázatokat, hogy támogatást adjon a Delta-tábla funkcióhoz a következő használatával
Kijavítottunk egy hibát, amely miatt a webes terminál nem használható egyes felhasználók fájljainak
/Workspace
eléréséhez.- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns
olvastak afailOnUnknownFields
sémafejlődési módban, a rendszer a különböző adattípusokkal rendelkező oszlopokat úgy olvassa fel, mintnull
ahelyett, hogy hibaüzenetet adna arról, hogy a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn
lehetőséget. - Az Automatikus betöltő mostantól helyesen olvassa be a típusokat,
Short
és már nem menti a típusokatInteger
,Byte
ha ezek közül az adattípusok egyike meg van adva. A Parquet-fájl a másik két típus egyikét javasolja. Ha a mentett adatoszlop korábban engedélyezve lett, az adattípus eltérése az oszlopok mentését okozhatja annak ellenére, hogy olvashatók voltak. - Kijavítottunk egy hibát, amely miatt az Automatikus betöltő séma fejlődése végtelen feladathurokba léphet, amikor egy új oszlopot észlel a beágyazott JSON-objektum sémájában.
- [SPARK-42794][SS] Növelje a lockAcquireTimeoutM-eket 2 percre a RocksDB állapottárolójának a Structure Streamingben való beszerzéséhez.
- [SPARK-39221][SQL] A bizalmas adatok helyes újrakontálása a kiszolgálói feladat/szakaszlap takarékosságához.
- [SPARK-42971][CORE] Módosítsa a nyomtatást
workdir
, haappDirs
null értékű, amikor a feldolgozó kezeliWorkDirCleanup
az eseményt. - [SPARK-42936][SQL] Kijavíthatja az LCA-hibát, ha a feltétel közvetlenül a gyermekösszesítéssel oldható meg.
- [SPARK-43018][SQL] Kijavíthatja az
INSERT
időbélyeg-literálokkal rendelkező parancsok hibáját. - Visszaállítás [SPARK-42754][SQL][UI] A visszamenőleges kompatibilitási probléma kijavítása beágyazott SQL-futtatásban.
- Visszaállítás [SPARK-41498] Metaadatok propagálása az Unionon keresztül.
- [SPARK-43038][SQL] A CBC mód támogatása a következővel
aes_encrypt()
/aes_decrypt()
: . - [SPARK-42928][SQL] Szinkronizálás.
resolvePersistentFunction
- [SPARK-42521][SQL] Adjon hozzá
NULL
értékeketINSERT
a céltáblánál kevesebb oszlopot tartalmazó, felhasználó által megadott listákhoz. - [SPARK-41391][SQL] A kimeneti oszlop neve
groupBy.agg(count_distinct)
helytelen volt. - [SPARK-42548][SQL] Hozzáadás
ReferenceAllColumns
az újraírási attribútumok kihagyásához. - [SPARK-42423][SQL] Adja hozzá a metaadatoszlop fájlblokk kezdetét és hosszát.
- [SPARK-42796][SQL] Az oszlopok elérésének
TimestampNTZ
támogatása a következőbenCachedBatch
: . - [SPARK-42266][PYTHON] Távolítsa el a szülőkönyvtárat shell.py futtassa az IPython használatakor.
- [SPARK-43011][SQL]
array_insert
0 indextel kell meghiúsulnia. - [SPARK-41874][CONNECT] [PYTHON] Támogatás
SameSemantics
a Spark Connectben. - [SPARK-42702][SPARK-42623][SQL] A paraméteres lekérdezés támogatása a subqueryben és a CTE-ben.
- [SPARK-42967][CORE] Javítás
SparkListenerTaskStart.stageAttemptId
, ha egy tevékenység a szakasz megszakítása után indul el. - Az operációs rendszer biztonsági frissítései.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
Databricks Runtime 12.1 (EoS)
Lásd: Databricks Runtime 12.1 (EoS).
2023. június 23.
- Az operációs rendszer biztonsági frissítései.
2023. június 15.
- Fotonizált
approx_count_distinct
. - A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- [SPARK-43779][SQL]
ParseToDate
most betöltődikEvalMode
a főszálban. - [SPARK-43156][SPARK-43098][SQL] Skaláris subquery count bug test kiterjesztése a decorrelateInnerQuery letiltva
- Az operációs rendszer biztonsági frissítései.
- Fotonizált
2023. június 2.
- A JSON-elemző
failOnUnknownFields
módban elvet egy rekordotDROPMALFORMED
módban, és közvetlenülFAILFAST
módban meghiúsul. - A növekményes frissítés teljesítményének javítása Iceberg és Parquet használatával
SHALLOW CLONE
. - Kijavítottunk egy hibát az Automatikus betöltőben, amelyben a különböző forrásfájlformátumok inkonzisztensek voltak, amikor a megadott séma nem tartalmazott következtetéses partíciókat. Ez a probléma váratlan hibákat okozhat a hiányzó oszlopokat tartalmazó fájlok olvasása során a késleltetett partíciós sémában.
- [SPARK-43404][Backport] Az azonosítók eltérésének elkerülése érdekében hagyja ki az sst-fájl újbóli újrafelhasználását a RocksDB-állapottároló ugyanazon verziójához.
- [SPARK-43413][11.3-13.0] [SQL] Kijavítottuk
IN
az alkérdezésListQuery
nullképességét. - [SPARK-43522][SQL] Kijavítottuk a tömboszlop nevének tömbindexel való létrehozását.
- [SPARK-42444][PYTHON]
DataFrame.drop
mostantól megfelelően kezeli a duplikált oszlopokat. - [SPARK-43541][SQL] Propagálja az összes
Project
címkét a kifejezések és a hiányzó oszlopok feloldása során. - [SPARK-43340][CORE] Kijavítottuk a hiányzó verem nyomkövetési mezőjét az eseménynaplókban.
- [SPARK-42937][SQL]
PlanSubqueries
mostantól igaz értékre van állítódvaInSubqueryExec#shouldBroadcast
. - [SPARK-43527][PYTHON] Javítva
catalog.listCatalogs
a PySparkban. - [SPARK-43378][CORE] A streamobjektumok megfelelő bezárása a következőben:
deserializeFromChunkedBuffer
.
- A JSON-elemző
2023. május 17.
- A parquet-vizsgálatok mostantól hatékonyak az OOM-ekkel szemben, amikor a köteg méretének dinamikus módosításával kivételesen strukturált fájlokat vizsgálnak. A fájl metaadatait a rendszer a köteg méretének előzetes csökkentése érdekében elemzi, és a feladat újrapróbálkozásakor ismét csökkenti végleges biztonsági hálóként.
- Ha egy Avro-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns\
olvastak afailOnUnknownFields\
sémafejlődési módban, a különböző adattípusokkal rendelkező oszlopok ahelyett, hogy hibaüzenetet adnánaknull\
, amely szerint a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn\
lehetőséget. - Az Automatikus betöltő mostantól a következőket végzi el.
-
- Helyesen olvas, és már nem menti a típusokat
Integer
,Short
Byte
ha az egyik adattípus meg van adva, de az Avro-fájl a másik két típus egyikét javasolja.
- Helyesen olvas, és már nem menti a típusokat
-
- Megakadályozza az intervallumtípusok dátumként vagy időbélyegként való olvasását, hogy elkerülje a sérült dátumok beolvasását.
-
- Megakadályozza a kisebb pontosságú olvasási
Decimal
típusokat.
- Megakadályozza a kisebb pontosságú olvasási
- [SPARK-43098][SQL] Kijavítottuk a helyességi
COUNT
hibát, ha a skaláris alkérdezés záradék szerint van csoportosítva. - [SPARK-43190][SQL]
ListQuery.childOutput
most már konzisztens a másodlagos kimenettel. - Az operációs rendszer biztonsági frissítései.
2023. április 25.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns
olvastak afailOnUnknownFields
sémafejlődési módban, a rendszer a különböző adattípusokkal rendelkező oszlopokat úgy olvassa fel, mintnull
ahelyett, hogy hibaüzenetet adna arról, hogy a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn
lehetőséget. - Az Automatikus betöltő mostantól helyesen olvassa be a típusokat,
Short
és már nem menti a típusokatInteger
,Byte
ha ezek közül az adattípusok egyike meg van adva. A Parquet-fájl a másik két típus egyikét javasolja. Ha a mentett adatoszlop korábban engedélyezve lett, az adattípus eltérése az oszlopok mentését okozhatja annak ellenére, hogy olvashatók voltak. - [SPARK-43009][SQL] Állandókkal
Any
paraméterezvesql()
. - [SPARK-42971][CORE] Módosítsa a nyomtatást
workdir
, haappDirs
null értékű, amikor a feldolgozó kezeliWorkDirCleanup
az eseményt. - Az operációs rendszer biztonsági frissítései.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
2023. április 11., kedd
- Az örökölt adatforrásformátumok támogatása a SYNC parancsban.
- Kijavít egy hibát az adattáron kívüli jegyzetfüzetek %autoreload viselkedésében.
- Kijavítottunk egy hibát, amely miatt az Automatikus betöltő séma fejlődése végtelen feladathurokba léphet, amikor egy új oszlopot észlel a beágyazott JSON-objektum sémájában.
- [SPARK-42928][SQL] Szinkronizálva lesz
resolvePersistentFunction
. - [SPARK-42967][CORE] Kijavítja
SparkListenerTaskStart.stageAttemptId
, ha egy tevékenység a szakasz megszakítása után indul el. - Az operációs rendszer biztonsági frissítései.
2023. március 29.
- Az Automatikus betöltő mostantól aktivál legalább egy szinkron RocksDB-naplót a streamek megtisztításához
Trigger.AvailableNow
, hogy az ellenőrzőpont rendszeresen megtisztítható legyen a gyorsan futó automatikus betöltő streamekhez. Ez bizonyos streameket hosszabb ideig is igénybe vehet, mielőtt leállnának, de tárolási költségeket takaríthat meg, és javíthatja az automatikus betöltő élményt a későbbi futtatások során. - Most már módosíthatja a Delta-táblázatot, hogy támogatást adjon a táblafunkciókhoz a következő használatával
DeltaTable.addFeatureSupport(feature_name)
: . - [SPARK-42702][SPARK-42623][SQL] Paraméteres lekérdezés támogatása az alkérésben és a CTE-ben
- [SPARK-41162][SQL] Anti- és semi-join javítása az összesítésekkel való önbeillesztéshez
- [SPARK-42403][CORE] A JsonProtocolnak null JSON-sztringeket kell kezelnie
- [SPARK-42668][SS] Kivétel észlelése a tömörített stream HDFSStateStoreProvider megszakítása közben
- [SPARK-42794][SS] Növelje a lockAcquireTimeoutM-eket 2 percre a RocksDB állapottárolójának a Structure Streamingben való beszerzéséhez
- Az Automatikus betöltő mostantól aktivál legalább egy szinkron RocksDB-naplót a streamek megtisztításához
2023. március 14.
- Terminológiamódosítás történik a funkciók Delta-táblához való hozzáadásához a táblatulajdonság használatával. Az előnyben részesített szintaxis most már
'delta.feature.featureName'='supported'
'delta.feature.featureName'='enabled'
nem a . A visszamenőleges kompatibilitás érdekében a használat'delta.feature.featureName'='enabled'
továbbra is működik, és továbbra is működni fog. - [SPARK-42622][CORE] Helyettesítés letiltása értékekben
- [SPARK-42534][SQL] Db2Dialect Limit záradék javítása
- [SPARK-42635][SQL] Javítsa ki a TimestampAdd kifejezést.
- [SPARK-42516][SQL] A munkamenet időzóna-konfigurációjának rögzítése a nézetek létrehozásakor
- [SPARK-42484] [SQL] A UnsafeRowUtils jobb hibaüzenete
- [SPARK-41793][SQL] Helytelen eredmény a nagy tizedesjegyek tartomány záradéka által definiált ablakkeretek esetében
- Az operációs rendszer biztonsági frissítései.
- Terminológiamódosítás történik a funkciók Delta-táblához való hozzáadásához a táblatulajdonság használatával. Az előnyben részesített szintaxis most már
2023. február 24.
- Mostantól használhatja a lekérdezési összevonásban támogatott adatforrásokhoz (PostgreSQL, MySQL, Synapse, Snowflake,
user
port
database
Redshift, SQL Server) való csatlakozáshoz használható egyesített lehetőségekethost
(, , , ) .password
Vegye figyelembe, hogyport
nem kötelező, és ha nincs megadva, az adatforrások alapértelmezett portszámát használja.
Példa a PostgreSQL-kapcsolat konfigurációjára
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );
Példa a Snowflake kapcsolat konfigurációjára
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );
- [SPARK-41989][PYTHON] Kerülje a pyspark.pandas naplózási konfigurációjának feltörését
- [SPARK-42346][SQL] Eltérő aggregátumok újraírása a részbefés után
- [SPARK-41990][SQL] V1-ről
FieldReference.column
V2-re való szűrőkonvertálás helyettapply
- Visszaállítás [SPARK-41848][CORE] A TaskResourceProfile-val túlütemezett tevékenységek javítása
- [SPARK-42162] MultiCommutativeOp-kifejezés bevezetése memóriaoptimalizálásként a vesszővel rendelkező kifejezések nagy fajainak canonicalizálásához
- Az operációs rendszer biztonsági frissítései.
- Mostantól használhatja a lekérdezési összevonásban támogatott adatforrásokhoz (PostgreSQL, MySQL, Synapse, Snowflake,
2023. február 16.
- A SYNC parancs támogatja az újra létrehozott Hive Metastore-táblák szinkronizálását. Ha egy HMS-táblát korábban a Unity Catalogba helyezett, majd elvetett és újra létrehozott, a következő újraszinkronizálás nem TABLE_ALREADY_EXISTS állapotkód dobása, hanem működni fog.
- [SPARK-41219][SQL] Az IntegralDivide decimális(1; 0) használatával jelöli a 0-t
- [SPARK-36173][CORE] Cpu-szám lekérésének támogatása a TaskContextben
- [SPARK-41848][CORE] Feladat túlütemezésének javítása a TaskResourceProfile használatával
- [SPARK-42286][SQL] Visszalépés az előző codegen-kódútvonalra az összetett kiff és a CAST használatával
2023. január 31.
- Egy meghatározott hellyel rendelkező séma létrehozásához a felhasználónak most már SELECT és MODIFY jogosultsággal kell rendelkeznie a BÁRMELY FÁJLban.
- [SPARK-41581][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_1230
- [SPARK-41996][SQL] [SS] A kafka-teszt javítása az elveszett partíciók ellenőrzéséhez a lassú Kafka-műveletek figyelembe vételével
- [SPARK-41580][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2137
- [SPARK-41666][PYTHON] Paraméteres SQL támogatása a következő szerint:
sql()
- [SPARK-41579][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_1249
- [SPARK-41573][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2136
- [SPARK-41574][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2009
- [SPARK-41049][Nyomon követés] A ConvertToLocalRelation kódszinkronizálási regressziójának javítása
- [SPARK-41576][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2051
- [SPARK-41572][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2149
- [SPARK-41575][SQL] Név hozzárendelése _LEGACY_ERROR_TEMP_2054
- Az operációs rendszer biztonsági frissítései.
Databricks Runtime 12.0 (EoS)
Lásd: Databricks Runtime 12.0 (EoS).
2023. június 15.
- Fotonizált
approx_count_distinct
. - A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- [SPARK-43156][SPARK-43098][SQL] Skaláris subquery count bug test kiterjesztése a decorrelateInnerQuery letiltva
- [SPARK-43779][SQL]
ParseToDate
most betöltődikEvalMode
a főszálban. - Az operációs rendszer biztonsági frissítései.
- Fotonizált
2023. június 2.
- A JSON-elemző
failOnUnknownFields
módban elvet egy rekordotDROPMALFORMED
módban, és közvetlenülFAILFAST
módban meghiúsul. - A növekményes frissítés teljesítményének javítása Iceberg és Parquet használatával
SHALLOW CLONE
. - Kijavítottunk egy hibát az Automatikus betöltőben, amelyben a különböző forrásfájlformátumok inkonzisztensek voltak, amikor a megadott séma nem tartalmazott következtetéses partíciókat. Ez a probléma váratlan hibákat okozhat a hiányzó oszlopokat tartalmazó fájlok olvasása során a késleltetett partíciós sémában.
- [SPARK-42444][PYTHON]
DataFrame.drop
mostantól megfelelően kezeli a duplikált oszlopokat. - [SPARK-43404][Backport] Az azonosítók eltérésének elkerülése érdekében hagyja ki az sst-fájl újbóli újrafelhasználását a RocksDB-állapottároló ugyanazon verziójához.
- [SPARK-43413][11.3-13.0] [SQL] Kijavítottuk
IN
az alkérdezésListQuery
nullképességét. - [SPARK-43527][PYTHON] Javítva
catalog.listCatalogs
a PySparkban. - [SPARK-43522][SQL] Kijavítottuk a tömboszlop nevének tömbindexel való létrehozását.
- [SPARK-43541][SQL] Propagálja az összes
Project
címkét a kifejezések és a hiányzó oszlopok feloldása során. - [SPARK-43340][CORE] Kijavítottuk a hiányzó verem nyomkövetési mezőjét az eseménynaplókban.
- [SPARK-42937][SQL]
PlanSubqueries
értékeInSubqueryExec#shouldBroadcast
igaz.
- A JSON-elemző
2023. május 17.
- A parquet-vizsgálatok mostantól hatékonyak az OOM-ekkel szemben, amikor a köteg méretének dinamikus módosításával kivételesen strukturált fájlokat vizsgálnak. A fájl metaadatait a rendszer a köteg méretének előzetes csökkentése érdekében elemzi, és a feladat újrapróbálkozásakor ismét csökkenti végleges biztonsági hálóként.
- Ha egy Avro-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns\
olvastak afailOnUnknownFields\
sémafejlődési módban, a különböző adattípusokkal rendelkező oszlopok ahelyett, hogy hibaüzenetet adnánaknull\
, amely szerint a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn\
lehetőséget. - Az Automatikus betöltő mostantól a következőket végzi el.
-
- Helyesen olvas, és már nem menti a típusokat
Integer
,Short
Byte
ha az egyik adattípus meg van adva, de az Avro-fájl a másik két típus egyikét javasolja.
- Helyesen olvas, és már nem menti a típusokat
-
- Megakadályozza az intervallumtípusok dátumként vagy időbélyegként való olvasását, hogy elkerülje a sérült dátumok beolvasását.
-
- Megakadályozza a kisebb pontosságú olvasási
Decimal
típusokat.
- Megakadályozza a kisebb pontosságú olvasási
- [SPARK-43172] [CONNECT] A Spark Connect-ügyfél gazdagépét és jogkivonatát teszi elérhetővé.
- [SPARK-41520][SQL] Faminta felosztása
AND_OR
a szétválasztandóAND
ésOR
a . - [SPARK-43098][SQL] Kijavítottuk a helyességi
COUNT
hibát, ha a skaláris alkérdezés záradék szerint van csoportosítva. - [SPARK-43190][SQL]
ListQuery.childOutput
most már konzisztens a másodlagos kimenettel. - Az operációs rendszer biztonsági frissítései.
2023. április 25.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns
olvastak afailOnUnknownFields
sémafejlődési módban, a rendszer a különböző adattípusokkal rendelkező oszlopokat úgy olvassa fel, mintnull
ahelyett, hogy hibaüzenetet adna arról, hogy a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn
lehetőséget. - Az Automatikus betöltő mostantól helyesen olvassa be a típusokat,
Short
és már nem menti a típusokatInteger
,Byte
ha ezek közül az adattípusok egyike meg van adva. A Parquet-fájl a másik két típus egyikét javasolja. Ha a mentett adatoszlop korábban engedélyezve lett, az adattípus eltérése az oszlopok mentését okozhatja annak ellenére, hogy olvashatók voltak. - [SPARK-42971][CORE] Módosítsa a nyomtatásra
workdir
, haappDirs
null értékű a feldolgozói kezelőWorkDirCleanup
eseménye - Az operációs rendszer biztonsági frissítései.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
2023. április 11., kedd
- Az örökölt adatforrásformátumok támogatása a parancsban
SYNC
. - Kijavít egy hibát a(z) %autoreload viselkedésben az adattáron kívüli jegyzetfüzetekben.
- Kijavítottunk egy hibát, amely miatt az Automatikus betöltő séma fejlődése végtelen feladathurokba léphet, amikor egy új oszlopot észlel a beágyazott JSON-objektum sémájában.
- [SPARK-42928][SQL] Szinkronizálva lesz
resolvePersistentFunction
. - [SPARK-42967][CORE] Kijavítja
SparkListenerTaskStart.stageAttemptId
, ha egy tevékenység a szakasz megszakítása után indul el. - Az operációs rendszer biztonsági frissítései.
- Az örökölt adatforrásformátumok támogatása a parancsban
2023. március 29.
- [SPARK-42794][SS] Növelje a lockAcquireTimeoutM-eket 2 percre a RocksDB állapottárolójának a Structure Streamingben való beszerzéséhez
- [SPARK-41162][SQL] Anti- és semi-join javítása az összesítésekkel való önbeillesztéshez
- [SPARK-42403][CORE] A JsonProtocolnak null JSON-sztringeket kell kezelnie
- [SPARK-42668][SS] Kivétel észlelése a tömörített stream HDFSStateStoreProvider megszakítása közben
- Egyéb hibajavítások.
2023. március 14.
- [SPARK-42534][SQL] Db2Dialect Limit záradék javítása
- [SPARK-42622][CORE] Helyettesítés letiltása értékekben
- [SPARK-41793][SQL] Helytelen eredmény a nagy tizedesjegyek tartomány záradéka által definiált ablakkeretek esetében
- [SPARK-42484] [SQL] A UnsafeRowUtils jobb hibaüzenete
- [SPARK-42635][SQL] Javítsa ki a TimestampAdd kifejezést.
- [SPARK-42516][SQL] A munkamenet időzóna-konfigurációjának rögzítése a nézetek létrehozásakor
- Az operációs rendszer biztonsági frissítései.
2023. február 24.
A lekérdezési összevonás szabványosított kapcsolati beállításai
Mostantól használhatja a lekérdezési összevonásban támogatott adatforrásokhoz (PostgreSQL, MySQL, Synapse, Snowflake,
user
port
database
Redshift, SQL Server) való csatlakozáshoz használható egyesített lehetőségekethost
(, , , ) .password
Vegye figyelembe, hogyport
nem kötelező, és ha nincs megadva, minden adatforráshoz az alapértelmezett portszámot fogja használni.Példa a PostgreSQL-kapcsolat konfigurációjára
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );
Példa a Snowflake kapcsolat konfigurációjára
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );
Visszaállítás [SPARK-41848][CORE] A TaskResourceProfile-val túlütemezett tevékenységek javítása
[SPARK-42162] MultiCommutativeOp-kifejezés bevezetése memóriaoptimalizálásként a vesszővel rendelkező kifejezések nagy fajainak canonicalizálásához
[SPARK-41990][SQL] V1-ről
FieldReference.column
V2-re való szűrőkonvertálás helyettapply
[SPARK-42346][SQL] Eltérő aggregátumok újraírása a részbefés után
Az operációs rendszer biztonsági frissítései.
2023. február 16.
- A felhasználók mostantól a Databricks Runtime 9.1-es vagy újabb verziójával olvashatnak és írhatnak bizonyos Delta-táblákat, amelyekhez az Olvasó 3- és a 7-es íróverzió szükséges. A sikeresség érdekében a táblák protokolljában felsorolt táblafunkciókat a Databricks Runtime jelenlegi verziójának kell támogatnia.
- A SYNC parancs támogatja az újra létrehozott Hive Metastore-táblák szinkronizálását. Ha egy HMS-táblát korábban a Unity Catalogba helyezett, majd elvetett és újra létrehozott, a következő újraszinkronizálás nem TABLE_ALREADY_EXISTS állapotkód dobása, hanem működni fog.
- [SPARK-36173][CORE] Cpu-szám lekérésének támogatása a TaskContextben
- [SPARK-42286][SQL] Visszalépés az előző codegen-kódútvonalra az összetett kiff és a CAST használatával
- [SPARK-41848][CORE] Feladat túlütemezésének javítása a TaskResourceProfile használatával
- [SPARK-41219][SQL] Az IntegralDivide decimális(1; 0) használatával jelöli a 0-t
2023. január 25.
- [SPARK-41660][SQL] Csak akkor propagálja a metaadatoszlopokat, ha használják őket
- [SPARK-41379][SS] [PYTHON] Klónozott spark-munkamenet biztosítása a DataFrame-ben a ForeachBatch fogadó felhasználói függvényében a PySparkban
- [SPARK-41669][SQL] Korai metszés a canCollapseExpressions-ban
- Az operációs rendszer biztonsági frissítései.
2023. január 18.
REFRESH FUNCTION
Az SQL-parancs mostantól támogatja az SQL-függvényeket és az SQL Table-függvényeket. A parancs például egy másik SQL-munkamenetben frissített állandó SQL-függvény frissítésére használható.- A Java Database Connectivity (JDBC) v1 adatforrás mostantól támogatja a LIMIT záradék leküldését a lekérdezések teljesítményének javítása érdekében. Ez a funkció alapértelmezés szerint engedélyezve van, és a beállítással
spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled
false
letiltható. - Az örökölt tábla ACL-fürtökben a JVM-osztályokra hivatkozó függvények létrehozása most már megköveteli a
MODIFY_CLASSPATH
jogosultságot. - A Java Database Connectivity (JDBC) v1 adatforrás mostantól támogatja a LIMIT záradék leküldését a lekérdezések teljesítményének javítása érdekében. Ez a funkció alapértelmezés szerint engedélyezve van, és letiltható a spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled beállítás hamis értékre állításával.
- Az Azure Synapse-összekötő mostantól leíróbb hibaüzenetet ad vissza, ha egy oszlopnév érvénytelen karaktereket, például szóközöket vagy pontosvesszőket tartalmaz. Ilyen esetekben a következő üzenet jelenik meg:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace
. - A Spark strukturált streamelése mostantól a formátum ("deltasharing") használatával működik forrásként egy deltamegosztási táblán.
- [SPARK-38277][SS] Írási köteg törlése a RocksDB állapottároló véglegesítése után
- [SPARK-41733][SQL] [SS] Famintás alapú metszés alkalmazása a ResolveWindowTime szabályhoz
- [SPARK-39591][SS] Aszinkron folyamatkövetés
- [SPARK-41339][SQL] Zárja be és hozza létre újra a RocksDB írási köteget a törlés helyett
- [SPARK-41198][SS] Metrikák javítása cTE- és DSv1-streamforrással rendelkező streamelési lekérdezésekben
- [SPARK-41539][SQL] A LogikaiRDD logikai tervében szereplő kimenet statisztikáinak és kényszereinek újraképe
- [SPARK-41732][SQL] [SS] Famintás alapú metszés alkalmazása a SessionWindowing szabályhoz
- [SPARK-41862][SQL] Az Orc-olvasó ALAPÉRTELMEZETT értékeivel kapcsolatos hiba javítása
- [SPARK-41199][SS] Metrikaproblémák kijavítása A DSv1 streamforrás és a DSv2 streamforrás együttes használata esetén
- [SPARK-41261][PYTHON] [SS] Kijavítottuk az applyInPandasWithState hibát, ha a csoportosítási kulcsok oszlopai nem a legkorábbi sorrendbe vannak helyezve
- Az operációs rendszer biztonsági frissítései.
2023. május 17.
- A parquet-vizsgálatok mostantól hatékonyak az OOM-ekkel szemben, amikor a köteg méretének dinamikus módosításával kivételesen strukturált fájlokat vizsgálnak. A fájl metaadatait a rendszer a köteg méretének előzetes csökkentése érdekében elemzi, és a feladat újrapróbálkozásakor ismét csökkenti végleges biztonsági hálóként.
- Kijavítottunk egy regressziót, amely miatt az Azure Databricks-feladatok megmaradtak, miután a fürt inicializálása során nem sikerült csatlakozni a metaadattárhoz.
- [SPARK-41520][SQL] Faminta felosztása
AND_OR
a szétválasztandóAND
ésOR
a . - [SPARK-43190][SQL]
ListQuery.childOutput
most már konzisztens a másodlagos kimenettel. - Az operációs rendszer biztonsági frissítései.
2023. április 25.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
failOnNewColumns
olvastak afailOnUnknownFields
sémafejlődési módban, a rendszer a különböző adattípusokkal rendelkező oszlopokat úgy olvassa fel, mintnull
ahelyett, hogy hibaüzenetet adna arról, hogy a fájl nem olvasható. Ezek az olvasások most sikertelenek, és azt javasolják a felhasználóknak, hogy használják arescuedDataColumn
lehetőséget. - Az Automatikus betöltő mostantól helyesen olvassa be a típusokat,
Short
és már nem menti a típusokatInteger
,Byte
ha ezek közül az adattípusok egyike meg van adva. A Parquet-fájl a másik két típus egyikét javasolja. Ha a mentett adatoszlop korábban engedélyezve lett, az adattípus eltérése az oszlopok mentését okozhatja annak ellenére, hogy olvashatók voltak. - [SPARK-42937][SQL]
PlanSubqueries
mostantól igaz értékre van állítódvaInSubqueryExec#shouldBroadcast
. - Az operációs rendszer biztonsági frissítései.
- Ha egy Parquet-fájlt csak a beállítással vagy az Automatikus betöltővel
2023. április 11., kedd
- Az örökölt adatforrásformátumok támogatása a SYNC parancsban.
- Kijavít egy hibát a(z) %autoreload viselkedésben az adattáron kívüli jegyzetfüzetekben.
- Kijavítottunk egy hibát, amely miatt az Automatikus betöltő séma fejlődése végtelen feladathurokba léphet, amikor egy új oszlopot észlel a beágyazott JSON-objektum sémájában.
- [SPARK-42928][SQL] A resolvePersistentFunction szinkronizálása.
- [SPARK-42967][CORE] A SparkListenerTaskStart.stageAttemptId javítása, ha egy tevékenység a szakasz megszakítása után indul el.
2023. március 29.
- [SPARK-42794][SS] Növelje a lockAcquireTimeoutM-eket 2 percre a RocksDB állapottárolójának a Structure Streamingben való beszerzéséhez
- [SPARK-42403][CORE] A JsonProtocolnak null JSON-sztringeket kell kezelnie
- [SPARK-42668][SS] Kivétel észlelése a tömörített stream HDFSStateStoreProvider megszakítása közben
- Az operációs rendszer biztonsági frissítései.
2023. március 14.
- [SPARK-42635][SQL] Javítsa ki a TimestampAdd kifejezést.
- [SPARK-41793][SQL] Helytelen eredmény a nagy tizedesjegyek tartomány záradéka által definiált ablakkeretek esetében
- [SPARK-42484] [SQL] A UnsafeRowUtils jobb hibaüzenete
- [SPARK-42534][SQL] Db2Dialect Limit záradék javítása
- [SPARK-41162][SQL] Anti- és semi-join javítása az összesítésekkel való önbeillesztéshez
- [SPARK-42516][SQL] A munkamenet időzóna-konfigurációjának rögzítése a nézetek létrehozásakor
- Egyéb hibajavítások.
2023. február 28.
A lekérdezési összevonás szabványosított kapcsolati beállításai
Mostantól használhatja a lekérdezési összevonásban támogatott adatforrásokhoz (PostgreSQL, MySQL, Synapse, Snowflake,
user
port
database
Redshift, SQL Server) való csatlakozáshoz használható egyesített lehetőségekethost
(, , , ) .password
Vegye figyelembe, hogyport
nem kötelező, és ha nincs megadva, az adatforrások alapértelmezett portszámát használja.Példa a PostgreSQL-kapcsolat konfigurációjára
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );
Példa a Snowflake kapcsolat konfigurációjára
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );
[SPARK-42286][SQL] Visszalépés az előző codegen-kódútvonalra az összetett kiff és a CAST használatával
[SPARK-41989][PYTHON] Kerülje a pyspark.pandas naplózási konfigurációjának feltörését
[SPARK-42346][SQL] Eltérő aggregátumok újraírása a részbefés után
[SPARK-41360][CORE] Kerülje a BlockManager újbóli regisztrációt, ha a végrehajtó elveszett
[SPARK-42162] MultiCommutativeOp-kifejezés bevezetése memóriaoptimalizálásként a vesszővel rendelkező kifejezések nagy fajainak canonicalizálásához
[SPARK-41990][SQL] V1-ről
FieldReference.column
V2-re való szűrőkonvertálás helyettapply
Az operációs rendszer biztonsági frissítései.
2023. február 16.
- A felhasználók mostantól a Databricks Runtime 9.1-es vagy újabb verziójával olvashatnak és írhatnak bizonyos Delta-táblákat, amelyekhez az Olvasó 3- és a 7-es íróverzió szükséges. A sikeresség érdekében a táblák protokolljában felsorolt táblafunkciókat a Databricks Runtime jelenlegi verziójának kell támogatnia.
- A SYNC parancs támogatja az újra létrehozott Hive Metastore-táblák szinkronizálását. Ha egy HMS-táblát korábban a Unity Catalogba helyezett, majd elvetett és újra létrehozott, a következő újraszinkronizálás nem TABLE_ALREADY_EXISTS állapotkód dobása, hanem működni fog.
- [SPARK-41219][SQL] Az IntegralDivide decimális(1; 0) használatával jelöli a 0-t
- [SPARK-40382][SQL] Különböző aggregátumkifejezések csoportosítása szemantikailag egyenértékű gyermekek szerint a
RewriteDistinctAggregates
- Az operációs rendszer biztonsági frissítései.
2023. január 25.
- [SPARK-41379][SS] [PYTHON] Klónozott spark-munkamenet biztosítása a DataFrame-ben a ForeachBatch fogadó felhasználói függvényében a PySparkban
- [SPARK-41660][SQL] Csak akkor propagálja a metaadatoszlopokat, ha használják őket
- [SPARK-41669][SQL] Korai metszés a canCollapseExpressions-ban
- Egyéb hibajavítások.
2023. január 18.
REFRESH FUNCTION
Az SQL-parancs mostantól támogatja az SQL-függvényeket és az SQL Table-függvényeket. A parancs például egy másik SQL-munkamenetben frissített állandó SQL-függvény frissítésére használható.- A Java Database Connectivity (JDBC) v1 adatforrás mostantól támogatja a LIMIT záradék leküldését a lekérdezések teljesítményének javítása érdekében. Ez a funkció alapértelmezés szerint engedélyezve van, és a beállítással
spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled
false
letiltható. - A Java Database Connectivity (JDBC) v1 adatforrás mostantól támogatja a LIMIT záradék leküldését a lekérdezések teljesítményének javítása érdekében. Ez a funkció alapértelmezés szerint engedélyezve van, és letiltható a spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled beállítás hamis értékre állításával.
- Az Azure Synapse-összekötő mostantól leíróbb hibaüzenetet ad vissza, ha egy oszlopnév érvénytelen karaktereket, például szóközöket vagy pontosvesszőket tartalmaz. Ilyen esetekben a következő üzenet jelenik meg:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace
. - [SPARK-41198][SS] Metrikák javítása cTE- és DSv1-streamforrással rendelkező streamelési lekérdezésekben
- [SPARK-41862][SQL] Az Orc-olvasó ALAPÉRTELMEZETT értékeivel kapcsolatos hiba javítása
- [SPARK-41539][SQL] A LogikaiRDD logikai tervében szereplő kimenet statisztikáinak és kényszereinek újraképe
- [SPARK-39591][SS] Aszinkron folyamatkövetés
- [SPARK-41199][SS] Metrikaproblémák kijavítása A DSv1 streamforrás és a DSv2 streamforrás együttes használata esetén
- [SPARK-41261][PYTHON] [SS] Kijavítottuk az applyInPandasWithState hibát, ha a csoportosítási kulcsok oszlopai nem a legkorábbi sorrendbe vannak helyezve
- [SPARK-41339][SQL] Zárja be és hozza létre újra a RocksDB írási köteget a törlés helyett
- [SPARK-41732][SQL] [SS] Famintás alapú metszés alkalmazása a SessionWindowing szabályhoz
- [SPARK-38277][SS] Írási köteg törlése a RocksDB állapottároló véglegesítése után
- Az operációs rendszer biztonsági frissítései.
2022. november 29.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A térközkezelés szabályozásához a következő lehetőségek lettek hozzáadva:
csvignoreleadingwhitespace
, ha betrue
van állítva , eltávolítja a kezdő szóközt az értékekből az írások során, amikortempformat
a be van állítvaCSV
vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.csvignoretrailingwhitespace
, ha be vantrue
állítva , eltávolítja a záró szóközt az értékekből az írások során, amikortempformat
az értékreCSV
van állítva vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.
- Kijavítottunk egy JSON-elemzési hibát az Automatikus betöltőben, amikor az összes oszlop sztringként maradt (
cloudFiles.inferColumnTypes
nincs beállítva vagy beállítvafalse
) és a JSON beágyazott objektumokat tartalmazott. - Frissítse
snowflake-jdbc
a függőséget a 3.13.22-es verzióra. - A JDBC-táblák táblázattípusai alapértelmezés szerint KÜLSŐek.
- [SPARK-40906][SQL]
Mode
a térképre való beszúrás előtt másolnia kell a kulcsokat - Az operációs rendszer biztonsági frissítései.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A térközkezelés szabályozásához a következő lehetőségek lettek hozzáadva:
2022. november 15.
- A tábla ACL-jei és a megosztott UC-fürtök mostantól engedélyezik a Dataset.toJSON metódust a Pythonból.
- [SPARK-40646] A szerkezetek, térképek és tömbök JSON-elemzése kijavítva, így ha egy rekord egy része nem egyezik a sémával, a rekord többi része továbbra is helyesen elemezhető a null értékek visszaadása helyett. A továbbfejlesztett viselkedéskészletre
spark.sql.json.enablePartialResults
true
való bejelentkezéshez. A jelölő alapértelmezés szerint le van tiltva az eredeti viselkedés megőrzése érdekében - [SPARK-40903][SQL] Ne rendezze újra a decimális hozzáadást a canonicalizáláshoz, ha az adattípus módosul
- [SPARK-40618][SQL] Hiba kijavítása a MergeScalarSubqueries szabályban beágyazott al lekérdezésekkel hivatkozáskövetés használatával
- [SPARK-40697][SQL] Írásvédett karakterpárna hozzáadása külső adatfájlok lefedéséhez
- Az operációs rendszer biztonsági frissítései.
2022. november 1.
- A Unity Catalog strukturált streamelése mostantól támogatja az ideiglenes hozzáférési jogkivonatok frissítését. A Unity Catalog használatával futó streamelési számítási feladatok vagy feladatfürtök a kezdeti jogkivonat lejárata után már nem hiúsulnak meg.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
_change_type
, de az adatcsatornák módosítása le lett tiltva a táblában, akkor az oszlopban lévő adatok futáskorMERGE
helytelenül töltődnek ki NULL értékekkel. - Kijavítottunk egy hibát, amely
MERGE
miatt a forrásból származó pontosan 99 oszlop futtatása és használata a feltételbenjava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow
a következőt eredményezhette: . - Kijavítottunk egy hibát az automatikus betöltővel kapcsolatban, amely miatt egy fájl duplikálható ugyanabban a mikrokötegben, ha
allowOverwrites
engedélyezve van. - Az Apache commons-text frissítése 1.10.0-ra.
- [SPARK-38881][DSTREAMS] [KINESIS] [PYSPARK] A CloudWatch MetricsLevel Config támogatása hozzáadva
- [SPARK-40596][CORE] A ExecutorDecommission feltöltése üzenetekkel a ExecutorDecommissionInfo alkalmazásban
- [SPARK-40670][SS] [PYTHON] NPE javítása az applyInPandasWithState alkalmazásban, ha a bemeneti séma "nem null értékű" oszlop(ok)
- Az operációs rendszer biztonsági frissítései.
Databricks Runtime 11.2 (EoS)
Lásd: Databricks Runtime 11.2 (EoS).
- 2023. február 28.
- [SPARK-42286][SQL] Visszalépés az előző codegen-kódútvonalra az összetett kiff és a CAST használatával
- [SPARK-42346][SQL] Eltérő aggregátumok újraírása a részbefés után
- Az operációs rendszer biztonsági frissítései.
- 2023. február 16.
- A felhasználók mostantól a Databricks Runtime 9.1-es vagy újabb verziójával olvashatnak és írhatnak bizonyos Delta-táblákat, amelyekhez az Olvasó 3- és a 7-es íróverzió szükséges. A sikeresség érdekében a táblák protokolljában felsorolt táblafunkciókat a Databricks Runtime jelenlegi verziójának kell támogatnia.
- A SYNC parancs támogatja az újra létrehozott Hive Metastore-táblák szinkronizálását. Ha egy HMS-táblát korábban a Unity Catalogba helyezett, majd elvetett és újra létrehozott, a következő újraszinkronizálás nem TABLE_ALREADY_EXISTS állapotkód dobása, hanem működni fog.
- [SPARK-41219][SQL] Az IntegralDivide decimális(1; 0) használatával jelöli a 0-t
- Az operációs rendszer biztonsági frissítései.
- 2023. január 31.
- A JDBC-táblák táblázattípusai alapértelmezés szerint KÜLSŐek.
- [SPARK-41379][SS] [PYTHON] Klónozott spark-munkamenet biztosítása a DataFrame-ben a ForeachBatch fogadó felhasználói függvényében a PySparkban
- 2023. január 18.
- Az Azure Synapse-összekötő mostantól leíróbb hibaüzenetet ad vissza, ha egy oszlopnév érvénytelen karaktereket, például szóközöket vagy pontosvesszőket tartalmaz. Ilyen esetekben a következő üzenet jelenik meg:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace
. - [SPARK-41198][SS] Metrikák javítása cTE- és DSv1-streamforrással rendelkező streamelési lekérdezésekben
- [SPARK-41862][SQL] Az Orc-olvasó ALAPÉRTELMEZETT értékeivel kapcsolatos hiba javítása
- [SPARK-41539][SQL] A LogikaiRDD logikai tervében szereplő kimenet statisztikáinak és kényszereinek újraképe
- [SPARK-41199][SS] Metrikaproblémák kijavítása A DSv1 streamforrás és a DSv2 streamforrás együttes használata esetén
- [SPARK-41339][SQL] Zárja be és hozza létre újra a RocksDB írási köteget a törlés helyett
- [SPARK-41732][SQL] [SS] Famintás alapú metszés alkalmazása a SessionWindowing szabályhoz
- [SPARK-38277][SS] Írási köteg törlése a RocksDB állapottároló véglegesítése után
- Az operációs rendszer biztonsági frissítései.
- Az Azure Synapse-összekötő mostantól leíróbb hibaüzenetet ad vissza, ha egy oszlopnév érvénytelen karaktereket, például szóközöket vagy pontosvesszőket tartalmaz. Ilyen esetekben a következő üzenet jelenik meg:
- 2022. november 29.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A térközkezelés szabályozásához a következő lehetőségek lettek hozzáadva:
csvignoreleadingwhitespace
, ha betrue
van állítva , eltávolítja a kezdő szóközt az értékekből az írások során, amikortempformat
a be van állítvaCSV
vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.csvignoretrailingwhitespace
, ha be vantrue
állítva , eltávolítja a záró szóközt az értékekből az írások során, amikortempformat
az értékreCSV
van állítva vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.
- Kijavítottunk egy JSON-elemzési hibát az Automatikus betöltőben, amikor az összes oszlop sztringként maradt (
cloudFiles.inferColumnTypes
nincs beállítva vagy beállítvafalse
) és a JSON beágyazott objektumokat tartalmazott. - [SPARK-40906][SQL]
Mode
a térképre való beszúrás előtt másolnia kell a kulcsokat - Az operációs rendszer biztonsági frissítései.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A térközkezelés szabályozásához a következő lehetőségek lettek hozzáadva:
- 2022. november 15.
- [SPARK-40646] A szerkezetek, térképek és tömbök JSON-elemzése kijavítva, így ha egy rekord egy része nem egyezik a sémával, a rekord többi része továbbra is helyesen elemezhető a null értékek visszaadása helyett. A továbbfejlesztett viselkedésre való bejelentkezéshez állítsa be
spark.sql.json.enablePartialResults
a következőttrue
: . A jelölő alapértelmezés szerint le van tiltva az eredeti viselkedés megőrzése érdekében - [SPARK-40618][SQL] Hiba kijavítása a MergeScalarSubqueries szabályban beágyazott al lekérdezésekkel hivatkozáskövetés használatával
- [SPARK-40697][SQL] Írásvédett karakterpárna hozzáadása külső adatfájlok lefedéséhez
- Az operációs rendszer biztonsági frissítései.
- [SPARK-40646] A szerkezetek, térképek és tömbök JSON-elemzése kijavítva, így ha egy rekord egy része nem egyezik a sémával, a rekord többi része továbbra is helyesen elemezhető a null értékek visszaadása helyett. A továbbfejlesztett viselkedésre való bejelentkezéshez állítsa be
- 2022. november 1.
- Az Apache commons-text frissítése 1.10.0-ra.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
_change_type
, de az adatcsatornák módosítása le lett tiltva a táblában, akkor az oszlopban lévő adatok futáskorMERGE
helytelenül töltődnek ki NULL értékekkel. - Kijavítottunk egy hibát, amely
MERGE
miatt a forrásból származó pontosan 99 oszlop futtatása és használata a feltételbenjava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow
a következőt eredményezhette: . - Kijavítottunk egy hibát az automatikus betöltővel kapcsolatban, amely miatt egy fájl duplikálható ugyanabban a mikrokötegben, ha
allowOverwrites
engedélyezve van - [SPARK-40596][CORE] A ExecutorDecommission feltöltése üzenetekkel a ExecutorDecommissionInfo alkalmazásban
- Az operációs rendszer biztonsági frissítései.
- 2022. október 19.
- Kijavítottunk egy hibát, amely miatt a COPY INTO használata ideiglenes hitelesítő adatokkal volt engedélyezve a Unity Catalog-kompatibilis fürtökön/ -raktárakon.
- [SPARK-40213][SQL] AsCII-értékek konvertálásának támogatása latin-1 karakter esetén
- Az operációs rendszer biztonsági frissítései.
- 2022. október 5.
- A felhasználók beállíthatják a spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") értéket az ADLS Gen2 automatikus betöltő natív listájának újbóli engedélyezéséhez. A natív lista korábban teljesítményproblémák miatt ki lett kapcsolva, de az ügyfelek tárolási költségeinek növekedéséhez vezethetett. Ez a módosítás a DBR 10.4 és 9.1 verzióra lett bevezetve az előző karbantartási frissítésben.
- [SPARK-40315][SQL] Az URL-kódolás/dekódolás támogatása beépített függvényként, valamint az URL-hez kapcsolódó függvények rendezettsége
- [SPARK-40156][SQL]
url_decode()
ha a visszaadott hibaosztály - [SPARK-40169] Ne nyomja le a Parquet-szűrőket, és ne hivatkozzon az adatsémára
- [SPARK-40460][SS] Streamelési metrikák javítása a kiválasztáskor
_metadata
- [SPARK-40468][SQL] Oszlopmetszés javítása CSV-ben _corrupt_record kijelölésekor
- [SPARK-40055][SQL] listCatalogs is vissza spark_catalog akkor is, ha spark_catalog implementáció alapértelmezettSessionCatalog
- Az operációs rendszer biztonsági frissítései.
- 2022. szeptember 22.
- [SPARK-40315][SQL] HashCode() hozzáadása a ArrayBasedMapData literálhoz
- [SPARK-40389][SQL] A tizedesjelek nem képezhetők integráltípusokként, ha a leadás túlcsordulhat
- [SPARK-40380][SQL] Az InvokeLike konstans összecsukásának javítása a tervbe beágyazott nem szerializálható literálok elkerülése érdekében
- [SPARK-40066][SQL] [NYOMON KÖVETÉS] Ellenőrizze, hogy az ElementAt feloldva van-e a dataType lekérése előtt
- [SPARK-40109][SQL] Új SQL-függvény: get()
- [SPARK-40066][SQL] ANSI mód: mindig null értéket ad vissza a térképoszlophoz való érvénytelen hozzáféréskor
- [SPARK-40089][SQL] Néhány decimális típus rendezésének javítása
- [SPARK-39887][SQL] A RemoveRedundantAliases-nek meg kell őriznie azokat az aliasokat, amelyek egyedivé teszik a vetítési csomópontok kimenetét
- [SPARK-40152][SQL] A split_part codegen fordítási problémájának megoldása
- [SPARK-40235][CORE] Megszakítható zárolás használata szinkronizált helyett a Executor.updateDependencies() alkalmazásban
- [SPARK-40212][SQL] A SparkSQL castPartValue nem kezeli megfelelően a bájtot, a rövidet vagy a lebegőpontost
- [SPARK-40218][SQL] A CSOPORTOSÍTÁSI CSOPORTOKnak meg kell őriznie a csoportosítási oszlopokat
- [SPARK-35542][ML] Javítás: Több oszlophoz létrehozott gyűjtőgyűjtő paraméterekkel
- [SPARK-40079] Imputer inputCols-ellenőrzés hozzáadása üres bemeneti esethez
- [SPARK-39912]SPARK-39828[SQL] CatalogImpl finomítása
Databricks Runtime 11.1 (EoS)
Lásd: Databricks Runtime 11.1 (EoS).
2023. január 31.
- [SPARK-41379][SS] [PYTHON] Klónozott spark-munkamenet biztosítása a DataFrame-ben a ForeachBatch fogadó felhasználói függvényében a PySparkban
- Egyéb hibajavítások.
2023. január 18.
- Az Azure Synapse-összekötő mostantól leíróbb hibaüzenetet ad vissza, ha egy oszlopnév érvénytelen karaktereket, például szóközöket vagy pontosvesszőket tartalmaz. Ilyen esetekben a következő üzenet jelenik meg:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace
. - [SPARK-41198][SS] Metrikák javítása cTE- és DSv1-streamforrással rendelkező streamelési lekérdezésekben
- [SPARK-41862][SQL] Az Orc-olvasó ALAPÉRTELMEZETT értékeivel kapcsolatos hiba javítása
- [SPARK-41199][SS] Metrikaproblémák kijavítása A DSv1 streamforrás és a DSv2 streamforrás együttes használata esetén
- [SPARK-41339][SQL] Zárja be és hozza létre újra a RocksDB írási köteget a törlés helyett
- [SPARK-41732][SQL] [SS] Famintás alapú metszés alkalmazása a SessionWindowing szabályhoz
- [SPARK-38277][SS] Írási köteg törlése a RocksDB állapottároló véglegesítése után
- Az operációs rendszer biztonsági frissítései.
- Az Azure Synapse-összekötő mostantól leíróbb hibaüzenetet ad vissza, ha egy oszlopnév érvénytelen karaktereket, például szóközöket vagy pontosvesszőket tartalmaz. Ilyen esetekben a következő üzenet jelenik meg:
2022. november 29.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A térközkezelés szabályozásához a következő lehetőségek lettek hozzáadva:
csvignoreleadingwhitespace
, ha betrue
van állítva , eltávolítja a kezdő szóközt az értékekből az írások során, amikortempformat
a be van állítvaCSV
vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.csvignoretrailingwhitespace
, ha be vantrue
állítva , eltávolítja a záró szóközt az értékekből az írások során, amikortempformat
az értékreCSV
van állítva vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.
- Kijavítottunk egy JSON-elemzési hibát az Automatikus betöltőben, amikor az összes oszlop sztringként maradt (
cloudFiles.inferColumnTypes
nincs beállítva vagy beállítvafalse
) és a JSON beágyazott objektumokat tartalmazott. - [SPARK-39650][SS] Helytelen értékséma javítása a streamelési deduplikációban a visszamenőleges kompatibilitással
- Az operációs rendszer biztonsági frissítései.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A térközkezelés szabályozásához a következő lehetőségek lettek hozzáadva:
2022. november 15.
- [SPARK-40646] A szerkezetek, térképek és tömbök JSON-elemzése ki lett javítva, így ha egy rekord egy része nem egyezik a sémával, a többi rekord továbbra is megfelelően elemezhető a null értékek visszaadása helyett. A továbbfejlesztett viselkedésre való bejelentkezéshez állítsa be
spark.sql.json.enablePartialResults
a következőttrue
: . A jelölő alapértelmezés szerint le van tiltva az eredeti viselkedés megőrzése érdekében - Az operációs rendszer biztonsági frissítései.
- [SPARK-40646] A szerkezetek, térképek és tömbök JSON-elemzése ki lett javítva, így ha egy rekord egy része nem egyezik a sémával, a többi rekord továbbra is megfelelően elemezhető a null értékek visszaadása helyett. A továbbfejlesztett viselkedésre való bejelentkezéshez állítsa be
2022. november 1.
- Az Apache commons-text frissítése 1.10.0-ra.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
_change_type
, de az adatcsatornák módosítása le lett tiltva a táblában, akkor az oszlopban lévő adatok futáskorMERGE
helytelenül töltődnek ki NULL értékekkel. - Kijavítottunk egy hibát, amely
MERGE
miatt a forrásból származó pontosan 99 oszlop futtatása és használata a feltételbenjava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow
a következőt eredményezhette: . - Kijavítottunk egy hibát az automatikus betöltővel kapcsolatban, amely miatt egy fájl duplikálható ugyanabban a mikrokötegben, ha
allowOverwrites
engedélyezve van - [SPARK-40697][SQL] Írásvédett karakterpárna hozzáadása külső adatfájlok lefedéséhez
- [SPARK-40596][CORE] A ExecutorDecommission feltöltése üzenetekkel a ExecutorDecommissionInfo alkalmazásban
- Az operációs rendszer biztonsági frissítései.
2022. október 18.
- Kijavítottunk egy hibát, amely miatt a COPY INTO használata ideiglenes hitelesítő adatokkal volt engedélyezve a Unity Catalog-kompatibilis fürtökön/ -raktárakon.
- [SPARK-40213][SQL] AsCII-értékek konvertálásának támogatása latin-1 karakter esetén
- Az operációs rendszer biztonsági frissítései.
2022. október 5., szerda
- A felhasználók beállíthatják a spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") értéket az ADLS Gen2 automatikus betöltő natív listájának újbóli engedélyezéséhez. A natív lista korábban teljesítményproblémák miatt ki lett kapcsolva, de az ügyfelek tárolási költségeinek növekedéséhez vezethetett. Ez a módosítás a DBR 10.4 és 9.1 verzióra lett bevezetve az előző karbantartási frissítésben.
- [SPARK-40169] Ne nyomja le a Parquet-szűrőket, és ne hivatkozzon az adatsémára
- [SPARK-40460][SS] Streamelési metrikák javítása a kiválasztáskor
_metadata
- [SPARK-40468][SQL] Oszlopmetszés javítása CSV-ben _corrupt_record kijelölésekor
- [SPARK-40055][SQL] listCatalogs is vissza spark_catalog akkor is, ha spark_catalog implementáció alapértelmezettSessionCatalog
- Az operációs rendszer biztonsági frissítései.
2022. szeptember 22.
- [SPARK-40315][SQL] HashCode() hozzáadása a ArrayBasedMapData literálhoz
- [SPARK-40380][SQL] Az InvokeLike konstans összecsukásának javítása a tervbe beágyazott nem szerializálható literálok elkerülése érdekében
- [SPARK-40089][SQL] Néhány decimális típus rendezésének javítása
- [SPARK-39887][SQL] A RemoveRedundantAliases-nek meg kell őriznie azokat az aliasokat, amelyek egyedivé teszik a vetítési csomópontok kimenetét
- [SPARK-40152][SQL] A split_part codegen fordítási problémájának megoldása
2022. szeptember 6.
- Frissítettük az engedélymodellt a Táblaelérési vezérlőkben (Table ACL-ek), hogy csak a MÓDOSÍTÁS engedély szükséges a tábla séma- vagy táblatulajdonságainak ALTER TABLE-sel történő módosításához. Korábban ezek a műveletek megkövetelik, hogy egy felhasználó birtokolja a táblát. A tulajdonjog továbbra is szükséges a táblák engedélyeinek megadásához, tulajdonosának módosításához, helyének módosításához vagy átnevezéséhez. Ez a módosítás konzisztensebbé teszi a table ACL-ek engedélyezési modelljét a Unity Katalógussal.
- [SPARK-40235][CORE] Megszakítható zárolás használata szinkronizált helyett a Executor.updateDependencies() alkalmazásban
- [SPARK-40212][SQL] A SparkSQL castPartValue nem kezeli megfelelően a bájtot, a rövidet vagy a lebegőpontost
- [SPARK-40218][SQL] A CSOPORTOSÍTÁSI CSOPORTOKnak meg kell őriznie a csoportosítási oszlopokat
- [SPARK-39976][SQL] A ArrayIntersectnek helyesen kell kezelnie a null értéket a bal oldali kifejezésben
- [SPARK-40053][CORE] [SQL] [TESZTEK] Hozzáadás
assume
a Python futtatókörnyezetet igénylő dinamikus megszakítási esetekhez - [SPARK-35542][CORE] [ML] Javítás: A splitsArray, inputCols és outputCols paraméterekkel rendelkező több oszlophoz létrehozott gyűjtő nem tölthető be a mentés után
- [SPARK-40079][CORE] Imputer inputCols-ellenőrzés hozzáadása üres bemeneti esethez
2022. augusztus 24.
- A megosztások, szolgáltatók és címzettek mostantól támogatják az SQL-parancsokat a tulajdonosok, megjegyzések és átnevezések módosításához
- [SPARK-39983][CORE] [SQL] Ne gyorsítótárazza a nemializált szórási kapcsolatokat az illesztőprogramon
- [SPARK-39912][SPARK-39828][SQL] CatalogImpl finomítása
- [SPARK-39775][CORE] [AVRO] Alapértelmezett értékek érvényesítésének letiltása az Avro-sémák elemzésekor
- [SPARK-39806] Kijavítottuk a METAADAT-struktúra összeomlását a particionált táblákon elérő lekérdezésekkel kapcsolatos problémát
- [SPARK-39867][SQL] A globális korlát nem örökölheti az OrderPreservingUnaryNode-t
- [SPARK-39962][PYTHON] [SQL] Vetítés alkalmazása üres csoportattribútumok esetén
- [SPARK-39839][SQL] Null változó hosszúságú decimális speciális esetének kezelése nem nulla eltolássalAndSize az UnsafeRow szerkezeti integritási ellenőrzése során
- [SPARK-39713][SQL] ANSI mód: javaslat hozzáadása try_element_at INVALID_ARRAY_INDEX hiba esetén való használatára
- [SPARK-39847][SS] A RocksDBLoader.loadLibrary() versenyállapotának javítása, ha a hívószál megszakad
- [SPARK-39731][SQL] Kijavítottuk a CSV- és JSON-adatforrásokban a dátumok "yyyyyMMdd" formátumban történő elemzésekor a JAVÍTOTT időelemző házirenddel kapcsolatos problémát
- Az operációs rendszer biztonsági frissítései.
2022. augusztus 10.
- Táblázathozzáférés-vezérléssel rendelkező Delta-táblák esetében a séma automatikus fejlődése DML-utasításokon keresztül, például
INSERT
ésMERGE
mostantól minden olyan felhasználó számára elérhető, aki rendelkezikMODIFY
ilyen táblákra vonatkozó engedélyekkel. Emellett a sémafejlődés végrehajtásához szükséges engedélyek mostantól másOWNER
MODIFY
parancsokkalCOPY INTO
való konzisztenciát eredményeznek. Ezek a módosítások konzisztensebbé teszik a tábla ACL biztonsági modelljét a Unity Catalog biztonsági modelljével, valamint más műveletekkel, például egy tábla cseréjével. - [SPARK-39889] Az osztás hibaüzenetének javítása 0-tal
- [SPARK-39795] [SQL] Új SQL-függvény: try_to_timestamp
- [SPARK-39749] AnSI módban mindig használjon egyszerű sztring-ábrázolást a tizedesjelek sztringként való megjelenítéséhez
- [SPARK-39625] Df.as átnevezése df.to
- [SPARK-39787] [SQL] Hibaosztály használata a to_timestamp függvény elemzési hibájában
- [SPARK-39625] [SQL] Dataset.as(StructType) hozzáadása
- [SPARK-39689] Két karakter
lineSep
támogatása a CSV-adatforrásban - [SPARK-39579] [SQL] [PYTHON] [R] ListFunctions/getFunction/functionExists kompatibilissé tétele 3 rétegbeli névtérrel
- [SPARK-39702] [CORE] A TransportCipher$EncryptedMessage memóriaterhelésének csökkentése megosztott byteRawChannel használatával
- [SPARK-39575] [AVRO] add ByteBuffer#rewind after ByteBuffer#get in AvroDeserializer
- [SPARK-39265] [SQL] Teszthiba kijavítása SPARK_ANSI_SQL_MODE engedélyezésekor
- [SPARK-39441] [SQL] Deduplikátumrelációk felgyorsítása
- [SPARK-39497] [SQL] A hiányzó térképkulcs-oszlop elemzési kivételének javítása
- [SPARK-39476] [SQL] Tiltsa le a unwrap cast optimalizálást hosszúról lebegőpontosra/ dupla vagy egész számból lebegőpontosra történő öntéskor
- [SPARK-39434] [SQL] Futtatókörnyezeti hiba lekérdezési környezetének megadása, ha a tömbindex nem határolt
- Táblázathozzáférés-vezérléssel rendelkező Delta-táblák esetében a séma automatikus fejlődése DML-utasításokon keresztül, például
Databricks Runtime 11.0 (EoS)
Lásd: Databricks Runtime 11.0 (EoS).
- 2022. november 29.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A térközkezelés szabályozásához a következő lehetőségek lettek hozzáadva:
csvignoreleadingwhitespace
, ha betrue
van állítva , eltávolítja a kezdő szóközt az értékekből az írások során, amikortempformat
a be van állítvaCSV
vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.csvignoretrailingwhitespace
, ha be vantrue
állítva , eltávolítja a záró szóközt az értékekből az írások során, amikortempformat
az értékreCSV
van állítva vagyCSV GZIP
. A szóközök megmaradnak, ha a konfiguráció értékefalse
. Alapértelmezés szerint az érték aztrue
.
- Kijavítottunk egy JSON-elemzési hibát az Automatikus betöltőben, amikor az összes oszlop sztringként maradt (
cloudFiles.inferColumnTypes
nincs beállítva vagy beállítvafalse
) és a JSON beágyazott objektumokat tartalmazott. - [SPARK-39650][SS] Helytelen értékséma javítása a streamelési deduplikációban a visszamenőleges kompatibilitással
- Az operációs rendszer biztonsági frissítései.
- A felhasználók konfigurálhatják a kezdő és záró szóközök viselkedését, amikor adatokat írnak a Redshift-összekötővel. A térközkezelés szabályozásához a következő lehetőségek lettek hozzáadva:
- 2022. november 15.
- [SPARK-40646] A szerkezetek, térképek és tömbök JSON-elemzése kijavítva, így ha egy rekord egy része nem egyezik a sémával, a rekord többi része továbbra is helyesen elemezhető a null értékek visszaadása helyett. A továbbfejlesztett viselkedésre való bejelentkezéshez állítsa be
spark.sql.json.enablePartialResults
a következőttrue
: . A jelölő alapértelmezés szerint le van tiltva az eredeti viselkedés megőrzése érdekében.
- [SPARK-40646] A szerkezetek, térképek és tömbök JSON-elemzése kijavítva, így ha egy rekord egy része nem egyezik a sémával, a rekord többi része továbbra is helyesen elemezhető a null értékek visszaadása helyett. A továbbfejlesztett viselkedésre való bejelentkezéshez állítsa be
- 2022. november 1.
- Az Apache commons-text frissítése 1.10.0-ra.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
_change_type
, de az adatcsatornák módosítása le lett tiltva a táblában, akkor az oszlopban lévő adatok futáskorMERGE
helytelenül töltődnek ki NULL értékekkel. - Kijavítottunk egy hibát az automatikus betöltővel kapcsolatban, amely miatt egy fájl duplikálható ugyanabban a mikrokötegben, ha
allowOverwrites
engedélyezve van - [SPARK-40697][SQL] Írásvédett karakterpárna hozzáadása külső adatfájlok lefedéséhez
- [SPARK-40596][CORE] A ExecutorDecommission feltöltése üzenetekkel a ExecutorDecommissionInfo alkalmazásban
- Az operációs rendszer biztonsági frissítései.
- 2022. október 18.
- [SPARK-40213][SQL] AsCII-értékek konvertálásának támogatása latin-1 karakter esetén
- Az operációs rendszer biztonsági frissítései.
- 2022. október 5.
- A felhasználók beállíthatják a spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") értéket az ADLS Gen2 automatikus betöltő natív listájának újbóli engedélyezéséhez. A natív lista korábban teljesítményproblémák miatt ki lett kapcsolva, de az ügyfelek tárolási költségeinek növekedéséhez vezethetett. Ez a módosítás a DBR 10.4 és 9.1 verzióra lett bevezetve az előző karbantartási frissítésben.
- [SPARK-40169] Ne nyomja le a Parquet-szűrőket, és ne hivatkozzon az adatsémára
- [SPARK-40460][SS] Streamelési metrikák javítása a kiválasztáskor
_metadata
- [SPARK-40468][SQL] Oszlopmetszés javítása CSV-ben _corrupt_record kijelölésekor
- Az operációs rendszer biztonsági frissítései.
- 2022. szeptember 22.
- [SPARK-40315][SQL] HashCode() hozzáadása a ArrayBasedMapData literálhoz
- [SPARK-40380][SQL] Az InvokeLike konstans összecsukásának javítása a tervbe beágyazott nem szerializálható literálok elkerülése érdekében
- [SPARK-40089][SQL] Néhány decimális típus rendezésének javítása
- [SPARK-39887][SQL] A RemoveRedundantAliases-nek meg kell őriznie azokat az aliasokat, amelyek egyedivé teszik a vetítési csomópontok kimenetét
- [SPARK-40152][SQL] A split_part codegen fordítási problémájának megoldása
- 2022. szeptember 6.
- [SPARK-40235][CORE] Megszakítható zárolás használata szinkronizált helyett a Executor.updateDependencies() alkalmazásban
- [SPARK-40212][SQL] A SparkSQL castPartValue nem kezeli megfelelően a bájtot, a rövidet vagy a lebegőpontost
- [SPARK-40218][SQL] A CSOPORTOSÍTÁSI CSOPORTOKnak meg kell őriznie a csoportosítási oszlopokat
- [SPARK-39976][SQL] A ArrayIntersectnek helyesen kell kezelnie a null értéket a bal oldali kifejezésben
- [SPARK-40053][CORE] [SQL] [TESZTEK] Hozzáadás
assume
a Python futtatókörnyezetet igénylő dinamikus megszakítási esetekhez - [SPARK-35542][CORE] [ML] Javítás: A splitsArray, inputCols és outputCols paraméterekkel rendelkező több oszlophoz létrehozott gyűjtő nem tölthető be a mentés után
- [SPARK-40079][CORE] Imputer inputCols-ellenőrzés hozzáadása üres bemeneti esethez
- 2022. augusztus 24.
- [SPARK-39983][CORE] [SQL] Ne gyorsítótárazza a nemializált szórási kapcsolatokat az illesztőprogramon
- [SPARK-39775][CORE] [AVRO] Alapértelmezett értékek érvényesítésének letiltása az Avro-sémák elemzésekor
- [SPARK-39806] Kijavítottuk a METAADAT-struktúra összeomlását a particionált táblákon elérő lekérdezésekkel kapcsolatos problémát
- [SPARK-39867][SQL] A globális korlát nem örökölheti az OrderPreservingUnaryNode-t
- [SPARK-39962][PYTHON] [SQL] Vetítés alkalmazása üres csoportattribútumok esetén
- Az operációs rendszer biztonsági frissítései.
- 2022. augusztus 9.
- [SPARK-39713][SQL] ANSI mód: javaslat hozzáadása try_element_at INVALID_ARRAY_INDEX hiba esetén való használatára
- [SPARK-39847] A RocksDBLoader.loadLibrary() versenyállapotának javítása, ha a hívószál megszakad
- [SPARK-39731][SQL] Kijavítottuk a CSV- és JSON-adatforrásokban a dátumok "yyyyyMMdd" formátumban történő elemzésekor a JAVÍTOTT időelemző házirenddel kapcsolatos problémát
- [SPARK-39889] Az osztás hibaüzenetének javítása 0-tal
- [SPARK-39795][SQL] Új SQL-függvény: try_to_timestamp
- [SPARK-39749] AnSI módban mindig használjon egyszerű sztring-ábrázolást a tizedesjelek sztringként való megjelenítéséhez
- [SPARK-39625][SQL] Dataset.to(StructType) hozzáadása
- [SPARK-39787][SQL] Hibaosztály használata a to_timestamp függvény elemzési hibájában
- Az operációs rendszer biztonsági frissítései.
- 2022. július 27.
- [SPARK-39689]Két karakter
lineSep
támogatása a CSV-adatforrásban - [SPARK-39104][SQL] InMemoryRelation#isCachedColumnBuffersLoaded kell szálbiztos
- [SPARK-39702][CORE] A TransportCipher$EncryptedMessage memóriaterhelésének csökkentése megosztott byteRawChannel használatával
- [SPARK-39575][AVRO] add ByteBuffer#rewind after ByteBuffer#get in AvroDeserializer
- [SPARK-39497][SQL] A hiányzó térképkulcs-oszlop elemzési kivételének javítása
- [SPARK-39441][SQL] Deduplikátumrelációk felgyorsítása
- [SPARK-39476][SQL] Tiltsa le a unwrap cast optimalizálást hosszúról lebegőpontosra/ dupla vagy egész számból lebegőpontosra történő öntéskor
- [SPARK-39434][SQL] Futtatókörnyezeti hiba lekérdezési környezetének megadása, ha a tömbindex nem határolt
- [SPARK-39570][SQL] A beágyazott táblázatnak engedélyeznie kell az aliassal rendelkező kifejezéseket
- Az operációs rendszer biztonsági frissítései.
- [SPARK-39689]Két karakter
- 2022. július 13.
- A Delta MERGE művelet eredményeinek konzisztenssé tétele, ha a forrás nem determinisztikus.
- Kijavítottunk egy hibát a cloud_files_state TVF-hez, ha nem DBFS-útvonalakon fut.
- Letiltotta az automatikus betöltő natív felhő API-k használatát az Azure címtárlistáihoz.
- [SPARK-38796][SQL] A to_number és try_to_number függvények frissítése a pozitív számokkal rendelkező pr-függvények engedélyezéséhez
- [SPARK-39272][SQL] A lekérdezési környezet kezdőpozíciójának növelése 1-sel
- [SPARK-39419][SQL] A ArraySort javítása kivétel kivetéséhez, ha az összehasonlító null értéket ad vissza
- Az operációs rendszer biztonsági frissítései.
- 2022. július 5.
- Hibaosztályok egy tartományának hibaüzeneteinek javítása.
- [SPARK-39451][SQL] Az integrálok kiosztási időközeinek támogatása ANSI módban
- [SPARK-39361] Ne használja a Log4J2 kiterjesztett konverziós mintáját az alapértelmezett naplózási konfigurációkban
- [SPARK-39354][SQL] Győződjön meg arról, hogy akkor is megjelenik
Table or view not found
dataTypeMismatchError
, ha egy adott időponthozFilter
kapcsolódik - [SPARK-38675][CORE] Verseny javítása a BlockInfoManager zárolásának feloldása során
- [SPARK-39392][SQL] ANSI-hibaüzenetek pontosítása try_* függvénytippekhez
- [SPARK-39214][SQL] [3.3] A CAST-hez kapcsolódó hibák javítása
- [SPARK-37939][SQL] Hibaosztályok használata a tulajdonságok elemzési hibáiban
- [SPARK-39085][SQL] A hibaüzenet
INCONSISTENT_BEHAVIOR_CROSS_VERSION
áthelyezése a error-classes.json - [SPARK-39376][SQL] Duplikált oszlopok elrejtése az alquery alias csillagbővítésében a NATURAL/USING JOIN elemből
- [SPARK-39283][CORE] A TaskMemoryManager és a UnsafeExternalSorter.SpillableIterator közötti holtpont javítása
- [SPARK-39285][SQL] A Spark nem ellenőrizheti a mezőneveket fájlok olvasásakor
- Az operációs rendszer biztonsági frissítései.
Databricks Runtime 10.5 (EoS)
Lásd: Databricks Runtime 10.5 (EoS).
- 2022. november 1.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
_change_type
, de az adatcsatornák módosítása le lett tiltva a táblában, akkor az oszlopban lévő adatok futáskorMERGE
helytelenül töltődnek ki NULL értékekkel. - [SPARK-40697][SQL] Írásvédett karakterpárna hozzáadása külső adatfájlok lefedéséhez
- [SPARK-40596][CORE] A ExecutorDecommission feltöltése üzenetekkel a ExecutorDecommissionInfo alkalmazásban
- Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy hibát, amely miatt ha egy Delta-tábla felhasználó által definiált oszlopot tartalmazott
- 2022. október 18.
- Az operációs rendszer biztonsági frissítései.
- 2022. október 5.
- A felhasználók beállíthatják a spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") értéket az ADLS Gen2 automatikus betöltő natív listájának újbóli engedélyezéséhez. A natív lista korábban teljesítményproblémák miatt ki lett kapcsolva, de az ügyfelek tárolási költségeinek növekedéséhez vezethetett. Ez a módosítás a DBR 10.4 és 9.1 verzióra lett bevezetve az előző karbantartási frissítésben.
- A reload4j 1.2.19-re lett frissítve a biztonsági rések javítása érdekében.
- [SPARK-40460][SS] Streamelési metrikák javítása a kiválasztáskor
_metadata
- [SPARK-40468][SQL] Oszlopmetszés javítása CSV-ben _corrupt_record kijelölésekor
- Az operációs rendszer biztonsági frissítései.
- 2022. szeptember 22.
- [SPARK-40315][SQL] HashCode() hozzáadása a ArrayBasedMapData literálhoz
- [SPARK-40213][SQL] AsCII-értékek konvertálásának támogatása latin-1 karakter esetén
- [SPARK-40380][SQL] Az InvokeLike konstans összecsukásának javítása a tervbe beágyazott nem szerializálható literálok elkerülése érdekében
- [SPARK-38404][SQL] A CTE felbontásának javítása, ha egy beágyazott CTE külső CTE-ra hivatkozik
- [SPARK-40089][SQL] Néhány decimális típus rendezésének javítása
- [SPARK-39887][SQL] A RemoveRedundantAliases-nek meg kell őriznie azokat az aliasokat, amelyek egyedivé teszik a vetítési csomópontok kimenetét
- Az operációs rendszer biztonsági frissítései.
- 2022. szeptember 6.
- [SPARK-40235][CORE] Megszakítható zárolás használata szinkronizált helyett a Executor.updateDependencies() alkalmazásban
- [SPARK-39976][SQL] A ArrayIntersectnek helyesen kell kezelnie a null értéket a bal oldali kifejezésben
- [SPARK-40053][CORE] [SQL] [TESZTEK] Hozzáadás
assume
a Python futtatókörnyezetet igénylő dinamikus megszakítási esetekhez - [SPARK-35542][CORE] [ML] Javítás: A splitsArray, inputCols és outputCols paraméterekkel rendelkező több oszlophoz létrehozott gyűjtő nem tölthető be a mentés után
- [SPARK-40079][CORE] Imputer inputCols-ellenőrzés hozzáadása üres bemeneti esethez
- 2022. augusztus 24.
- [SPARK-39983][CORE] [SQL] Ne gyorsítótárazza a nemializált szórási kapcsolatokat az illesztőprogramon
- [SPARK-39775][CORE] [AVRO] Alapértelmezett értékek érvényesítésének letiltása az Avro-sémák elemzésekor
- [SPARK-39806] Kijavítottuk a METAADAT-struktúra összeomlását a particionált táblákon elérő lekérdezésekkel kapcsolatos problémát
- [SPARK-39962][PYTHON] [SQL] Vetítés alkalmazása üres csoportattribútumok esetén
- [SPARK-37643][SQL] ha a charVarcharAsString értéke igaz, akkor a karakter adattípus-predikátum lekérdezésének ki kell hagynia az rpadding szabályt
- Az operációs rendszer biztonsági frissítései.
- 2022. augusztus 9.
- [SPARK-39847] A RocksDBLoader.loadLibrary() versenyállapotának javítása, ha a hívószál megszakad
- [SPARK-39731][SQL] Kijavítottuk a CSV- és JSON-adatforrásokban a dátumok "yyyyyMMdd" formátumban történő elemzésekor a JAVÍTOTT időelemző házirenddel kapcsolatos problémát
- Az operációs rendszer biztonsági frissítései.
- 2022. július 27.
- [SPARK-39625][SQL] Dataset.as(StructType) hozzáadása
- [SPARK-39689]Két karakter
lineSep
támogatása a CSV-adatforrásban - [SPARK-39104][SQL] InMemoryRelation#isCachedColumnBuffersLoaded kell szálbiztos
- [SPARK-39570][SQL] A beágyazott táblázatnak engedélyeznie kell az aliassal rendelkező kifejezéseket
- [SPARK-39702][CORE] A TransportCipher$EncryptedMessage memóriaterhelésének csökkentése megosztott byteRawChannel használatával
- [SPARK-39575][AVRO] add ByteBuffer#rewind after ByteBuffer#get in AvroDeserializer
- [SPARK-39476][SQL] Tiltsa le a unwrap cast optimalizálást hosszúról lebegőpontosra/ dupla vagy egész számból lebegőpontosra történő öntéskor
- Az operációs rendszer biztonsági frissítései.
- 2022. július 13.
- A Delta MERGE művelet eredményeinek konzisztenssé tétele, ha a forrás nem determinisztikus.
- [SPARK-39355][SQL] Az egyetlen oszlop idézve hozza létre az UnresolvedAttribute függvényt
- [SPARK-39548][SQL] A CreateView parancs ablak-záradék lekérdezéssel hibás ablakdefiníciót talált, és nem található probléma
- [SPARK-39419][SQL] A ArraySort javítása kivétel kivetéséhez, ha az összehasonlító null értéket ad vissza
- Letiltotta az automatikus betöltő natív felhő API-k használatát az Azure címtárlistáihoz.
- Az operációs rendszer biztonsági frissítései.
- 2022. július 5.
- [SPARK-39376][SQL] Duplikált oszlopok elrejtése az alquery alias csillagbővítésében a NATURAL/USING JOIN elemből
- Az operációs rendszer biztonsági frissítései.
- 2022. június 15.
- [SPARK-39283][CORE] A TaskMemoryManager és a UnsafeExternalSorter.SpillableIterator közötti holtpont javítása
- [SPARK-39285][SQL] A Spark nem ellenőrizheti a mezőneveket fájlok olvasásakor
- [SPARK-34096][SQL] Jobb teljesítmény nth_value null értékek figyelmen kívül hagyása eltolásos ablakban
- [SPARK-36718][SQL] [FOLYTATÁS] A CollapseProject beadásának
isExtractOnly
javítása
- 2022. június 2.
- [SPARK-39166][SQL] Futtatókörnyezeti hibakeresési környezet megadása bináris aritmetika esetén, ha a WSCG ki van kapcsolva
- [SPARK-39093][SQL] Ne használjon kódösszeállítási hibát, ha az évenkénti vagy a napi időintervallumokat elválasztja egy integráltól
- [SPARK-38990][SQL] A NullPointerException elkerülése date_trunc/trunc formátum kötött hivatkozásként való kiértékelésekor
- Az operációs rendszer biztonsági frissítései.
- 2022. május 18.
- Kijavít egy lehetséges natív memóriaszivárgást az Automatikus betöltőben.
- [SPARK-38868][SQL] A külső illesztések optimalizálása során ne propagálja a szűrők predikátumából származó kivételeket
- [SPARK-38796][SQL] Az to_number és try_to_number SQL-függvények implementálása egy új specifikációnak megfelelően
- [SPARK-38918][SQL] A beágyazott oszlopmetszetnek kiszűrnie kell azokat az attribútumokat, amelyek nem tartoznak az aktuális relációhoz
- [SPARK-38929][SQL] A leadott hibák hibaüzeneteinek javítása az ANSI-ben
- [SPARK-38926][SQL] Kimeneti típusok a hibaüzenetekben SQL-stílusban
- [SPARK-39084][PYSPARK] A df.rdd.isEmpty() javítása a TaskContext használatával az iterátor leállításához a tevékenység befejezésekor
- [SPARK-32268][SQL] ColumnPruning hozzáadása az injectBloomFilterben
- [SPARK-38908][SQL] Lekérdezési környezet megadása futásidejű hiba esetén a karakterláncról a számra/dátumra/időbélyegre/logikai értékre történő osztáskor
- [SPARK-39046][SQL] Üres környezeti sztring visszaadására, ha a TreeNode.origin helytelenül van beállítva
- [SPARK-38974][SQL] Regisztrált függvények szűrése adott adatbázisnévvel a listafüggvényekben
- [SPARK-38762][SQL] Lekérdezési környezet megadása decimális túlcsordulási hibák esetén
- [SPARK-38931][SS] Gyökér dfs-könyvtár létrehozása a RocksDBFileManagerhez ismeretlen számú kulcssal az 1. ellenőrzőponton
- [SPARK-38992][CORE] Kerülje a bash -c használatát a ShellBasedGroupsMappingProviderben
- [SPARK-38716][SQL] Lekérdezési környezet megadása a térképkulcsban nem létezik hiba
- [SPARK-38889][SQL] Logikai oszlopszűrők fordítása az MSSQL-adatforrás bittípusának használatához
- [SPARK-38698][SQL] Lekérdezési környezet megadása futtatókörnyezetben a Divide/Div/Reminder/Pmod hiba esetén
- [SPARK-38823][SQL] Összecsukhatóvá tétele
NewInstance
az összesítési puffer sérülésével kapcsolatos probléma megoldásához - [SPARK-38809][SS] Null értékek kihagyásának implementálása stream-stream illesztések szimmetrikus kivonatos implementációjában
- [SPARK-38676][SQL] SQL-lekérdezési környezet megadása futásidejű hibaüzenetben: Hozzáadás/kivonás/szorzás
- [SPARK-38677][PYSPARK] A Python MonitorThreadnak holtpontot kell észlelnie az I/O blokkolása miatt
- Az operációs rendszer biztonsági frissítései.
Databricks Runtime 10.3 (EoS)
Lásd: Databricks Runtime 10.3 (EoS).
- 2022. július 27.
- [SPARK-39689]Két karakter
lineSep
támogatása a CSV-adatforrásban - [SPARK-39104][SQL] InMemoryRelation#isCachedColumnBuffersLoaded kell szálbiztos
- [SPARK-39702][CORE] A TransportCipher$EncryptedMessage memóriaterhelésének csökkentése megosztott byteRawChannel használatával
- Az operációs rendszer biztonsági frissítései.
- [SPARK-39689]Két karakter
- 2022. július 20.
- A Delta MERGE művelet eredményeinek konzisztenssé tétele, ha a forrás nem determinisztikus.
- [SPARK-39476][SQL] Tiltsa le a unwrap cast optimalizálást hosszúról lebegőpontosra/ dupla vagy egész számból lebegőpontosra történő öntéskor
- [SPARK-39548][SQL] A CreateView parancs ablak-záradék lekérdezéssel hibás ablakdefiníciót talált, és nem található probléma
- [SPARK-39419][SQL] A ArraySort javítása kivétel kivetéséhez, ha az összehasonlító null értéket ad vissza
- Az operációs rendszer biztonsági frissítései.
- 2022. július 5.
- [SPARK-39376][SQL] Duplikált oszlopok elrejtése az alquery alias csillagbővítésében a NATURAL/USING JOIN elemből
- Az operációs rendszer biztonsági frissítései.
- 2022. június 15.
- [SPARK-39283][CORE] A TaskMemoryManager és a UnsafeExternalSorter.SpillableIterator közötti holtpont javítása
- [SPARK-39285][SQL] A Spark nem ellenőrizheti a mezőneveket fájlok olvasásakor
- [SPARK-34096][SQL] Jobb teljesítmény nth_value null értékek figyelmen kívül hagyása eltolásos ablakban
- [SPARK-36718][SQL] [FOLYTATÁS] A CollapseProject beadásának
isExtractOnly
javítása
- 2022. június 2.
- [SPARK-38990][SQL] A NullPointerException elkerülése date_trunc/trunc formátum kötött hivatkozásként való kiértékelésekor
- Az operációs rendszer biztonsági frissítései.
- 2022. május 18.
- Kijavít egy lehetséges natív memóriaszivárgást az Automatikus betöltőben.
- [SPARK-38918][SQL] A beágyazott oszlopmetszetnek kiszűrnie kell azokat az attribútumokat, amelyek nem tartoznak az aktuális relációhoz
- [SPARK-37593][CORE] Az alapértelmezett oldalméret csökkentése LONG_ARRAY_OFFSET G1GC és ON_HEAP használata esetén
- [SPARK-39084][PYSPARK] A df.rdd.isEmpty() javítása a TaskContext használatával az iterátor leállításához a tevékenység befejezésekor
- [SPARK-32268][SQL] ColumnPruning hozzáadása az injectBloomFilterben
- [SPARK-38974][SQL] Regisztrált függvények szűrése adott adatbázisnévvel a listafüggvényekben
- [SPARK-38889][SQL] Logikai oszlopszűrők fordítása az MSSQL-adatforrás bittípusának használatához
- Az operációs rendszer biztonsági frissítései.
- 2022. május 4.
- A Java AWS SDK az 1.11.655-ös verzióról 1.12.1899-re frissült.
- 2022. április 19.
- [SPARK-38616][SQL] SQL-lekérdezés szövegének nyomon követése a Catalyst TreeNode-ban
- Az operációs rendszer biztonsági frissítései.
- 2022. április 6.
- [SPARK-38631][CORE] Java-alapú implementációt használ az Utils.unpack kicsomagolásának feloldásához
- Az operációs rendszer biztonsági frissítései.
- 2022. március 22.
- Módosította a jegyzetfüzetek aktuális munkakönyvtárát a magas egyidejűségi fürtökön, és a táblahozzáférés-vezérlés vagy a hitelesítő adatok átengedése engedélyezve van a felhasználó kezdőlapján. Korábban a munkakönyvtár volt
/databricks/driver
. - [SPARK-38437][SQL] A datetime elenyenes szerializálása az adatforrásból
- [SPARK-38180][SQL] Biztonságos felfelé öntött kifejezések engedélyezése korrelált egyenlőségi predikátumokban
- [SPARK-38155][SQL] Eltérő aggregátumok kizárása oldalirányú al lekérdezésekben nem támogatott predikátumokkal
- [SPARK-38325][SQL] ANSI mód: elkerülheti a lehetséges futásidejű hibát a HashJoin.extractKeyExprAt()
- Módosította a jegyzetfüzetek aktuális munkakönyvtárát a magas egyidejűségi fürtökön, és a táblahozzáférés-vezérlés vagy a hitelesítő adatok átengedése engedélyezve van a felhasználó kezdőlapján. Korábban a munkakönyvtár volt
- 2022. március 14.
- Továbbfejlesztett tranzakcióütközés-észlelés üres tranzakciókhoz a Delta Lake-ben.
- [SPARK-38185][SQL] Helytelen adatok javítása, ha az összesítő függvény üres
- [SPARK-38318][SQL] regresszió adathalmaznézet cseréjekor
- [SPARK-38236][SQL] A create/alter táblában megadott abszolút fájlelérési útvonalak relatívként lesznek kezelve
- [SPARK-35937][SQL] A dátummező időbélyegből való kinyerésének ANSI módban kell működnie
- [SPARK-34069][SQL] Az akadálymentesítési feladatoknak tiszteletben kell tartaniuk
SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-37707][SQL] Tároló hozzárendelésének engedélyezése a TimestampNTZ és a Date/Timestamp között
- 2022. február 23.
- [SPARK-27442][SQL] Mezőnév eltávolítása adatok parquetben való olvasása/írása során
Databricks Runtime 10.2 (EoS)
Lásd: Databricks Runtime 10.2 (EoS).
- 2022. június 15.
- [SPARK-39283][CORE] A TaskMemoryManager és a UnsafeExternalSorter.SpillableIterator közötti holtpont javítása
- [SPARK-39285][SQL] A Spark nem ellenőrizheti a mezőneveket fájlok olvasásakor
- [SPARK-34096][SQL] Jobb teljesítmény nth_value null értékek figyelmen kívül hagyása eltolásos ablakban
- 2022. június 2.
- [SPARK-38918][SQL] A beágyazott oszlopmetszetnek kiszűrnie kell azokat az attribútumokat, amelyek nem tartoznak az aktuális relációhoz
- [SPARK-38990][SQL] A NullPointerException elkerülése date_trunc/trunc formátum kötött hivatkozásként való kiértékelésekor
- Az operációs rendszer biztonsági frissítései.
- 2022. május 18.
- Kijavít egy lehetséges natív memóriaszivárgást az Automatikus betöltőben.
- [SPARK-39084][PYSPARK] A df.rdd.isEmpty() javítása a TaskContext használatával az iterátor leállításához a tevékenység befejezésekor
- [SPARK-38889][SQL] Logikai oszlopszűrők fordítása az MSSQL-adatforrás bittípusának használatához
- [SPARK-38931][SS] Gyökér dfs-könyvtár létrehozása a RocksDBFileManagerhez ismeretlen számú kulcssal az 1. ellenőrzőponton
- Az operációs rendszer biztonsági frissítései.
- 2022. május 4.
- A Java AWS SDK az 1.11.655-ös verzióról 1.12.1899-re frissült.
- 2022. április 19.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
- 2022. április 6.
- [SPARK-38631][CORE] Java-alapú implementációt használ az Utils.unpack kicsomagolásának feloldásához
- Az operációs rendszer biztonsági frissítései.
- 2022. március 22.
- Módosította a jegyzetfüzetek aktuális munkakönyvtárát a magas egyidejűségi fürtökön, és a táblahozzáférés-vezérlés vagy a hitelesítő adatok átengedése engedélyezve van a felhasználó kezdőlapján. Korábban a munkakönyvtár volt
/databricks/driver
. - [SPARK-38437][SQL] A datetime elenyenes szerializálása az adatforrásból
- [SPARK-38180][SQL] Biztonságos felfelé öntött kifejezések engedélyezése korrelált egyenlőségi predikátumokban
- [SPARK-38155][SQL] Eltérő aggregátumok kizárása oldalirányú al lekérdezésekben nem támogatott predikátumokkal
- [SPARK-38325][SQL] ANSI mód: elkerülheti a lehetséges futásidejű hibát a HashJoin.extractKeyExprAt()
- Módosította a jegyzetfüzetek aktuális munkakönyvtárát a magas egyidejűségi fürtökön, és a táblahozzáférés-vezérlés vagy a hitelesítő adatok átengedése engedélyezve van a felhasználó kezdőlapján. Korábban a munkakönyvtár volt
- 2022. március 14.
- Továbbfejlesztett tranzakcióütközés-észlelés üres tranzakciókhoz a Delta Lake-ben.
- [SPARK-38185][SQL] Helytelen adatok javítása, ha az összesítő függvény üres
- [SPARK-38318][SQL] regresszió adathalmaznézet cseréjekor
- [SPARK-38236][SQL] A create/alter táblában megadott abszolút fájlelérési útvonalak relatívként lesznek kezelve
- [SPARK-35937][SQL] A dátummező időbélyegből való kinyerésének ANSI módban kell működnie
- [SPARK-34069][SQL] Az akadálymentesítési feladatoknak tiszteletben kell tartaniuk
SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-37707][SQL] Tároló hozzárendelésének engedélyezése a TimestampNTZ és a Date/Timestamp között
- 2022. február 23.
- [SPARK-37577][SQL] A ClassCastException javítása: A ArrayType nem adható át a StructType-ba a metszés létrehozásához
- 2022. február 8.
- [SPARK-27442][SQL] Az adatok parquetben való olvasása/írása során távolítsa el a jelölőnégyzet nevét.
- Az operációs rendszer biztonsági frissítései.
- 2022. február 1.
- Az operációs rendszer biztonsági frissítései.
- 2022. január 26.
- Kijavítottunk egy hibát, amely miatt a Delta-táblák egyidejű tranzakciói bizonyos ritka feltételek mellett nem szerializálható sorrendben véglegesíthetők.
- Kijavítottunk egy hibát, amely miatt az OPTIMIZE parancs meghiúsulhatott, amikor az ANSI SQL-dialektus engedélyezve volt.
- 2022. január 19.
- Bevezettük az ideiglenes hitelesítő adatok beillesztését a forrásadatok betöltéséhez sql-ANY_FILE-engedélyek megkövetelése nélkül
- Hibajavítások és biztonsági fejlesztések.
- 2021. december 20.
- Kijavítottunk egy ritka hibát a Parquet oszlopindex-alapú szűréssel.
Databricks Runtime 10.1 (EoS)
Lásd: Databricks Runtime 10.1 (EoS).
- 2022. június 15.
- [SPARK-39283][CORE] A TaskMemoryManager és a UnsafeExternalSorter.SpillableIterator közötti holtpont javítása
- [SPARK-39285][SQL] A Spark nem ellenőrizheti a mezőneveket fájlok olvasásakor
- [SPARK-34096][SQL] Jobb teljesítmény nth_value null értékek figyelmen kívül hagyása eltolásos ablakban
- 2022. június 2.
- Az operációs rendszer biztonsági frissítései.
- 2022. május 18.
- Kijavít egy lehetséges natív memóriaszivárgást az Automatikus betöltőben.
- [SPARK-39084][PYSPARK] A df.rdd.isEmpty() javítása a TaskContext használatával az iterátor leállításához a tevékenység befejezésekor
- [SPARK-38889][SQL] Logikai oszlopszűrők fordítása az MSSQL-adatforrás bittípusának használatához
- Az operációs rendszer biztonsági frissítései.
- 2022. április 19.
- [SPARK-37270][SQL] A CaseWhen-ágakba összecsukható leküldés javítása, ha az elseValue üres
- Az operációs rendszer biztonsági frissítései.
- 2022. április 6.
- [SPARK-38631][CORE] Java-alapú implementációt használ az Utils.unpack kicsomagolásának feloldásához
- Az operációs rendszer biztonsági frissítései.
- 2022. március 22.
- [SPARK-38437][SQL] A datetime elenyenes szerializálása az adatforrásból
- [SPARK-38180][SQL] Biztonságos felfelé öntött kifejezések engedélyezése korrelált egyenlőségi predikátumokban
- [SPARK-38155][SQL] Eltérő aggregátumok kizárása oldalirányú al lekérdezésekben nem támogatott predikátumokkal
- [SPARK-38325][SQL] ANSI mód: elkerülheti a lehetséges futásidejű hibát a HashJoin.extractKeyExprAt()
- 2022. március 14.
- Továbbfejlesztett tranzakcióütközés-észlelés üres tranzakciókhoz a Delta Lake-ben.
- [SPARK-38185][SQL] Helytelen adatok javítása, ha az összesítő függvény üres
- [SPARK-38318][SQL] regresszió adathalmaznézet cseréjekor
- [SPARK-38236][SQL] A create/alter táblában megadott abszolút fájlelérési útvonalak relatívként lesznek kezelve
- [SPARK-35937][SQL] A dátummező időbélyegből való kinyerésének ANSI módban kell működnie
- [SPARK-34069][SQL] Az akadálymentesítési feladatoknak tiszteletben kell tartaniuk
SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-37707][SQL] Tároló hozzárendelésének engedélyezése a TimestampNTZ és a Date/Timestamp között
- 2022. február 23.
- [SPARK-37577][SQL] A ClassCastException javítása: A ArrayType nem adható át a StructType-ba a metszés létrehozásához
- 2022. február 8.
- [SPARK-27442][SQL] Az adatok parquetben való olvasása/írása során távolítsa el a jelölőnégyzet nevét.
- Az operációs rendszer biztonsági frissítései.
- 2022. február 1.
- Az operációs rendszer biztonsági frissítései.
- 2022. január 26.
- Kijavítottunk egy hibát, amely miatt a Delta-táblák egyidejű tranzakciói bizonyos ritka feltételek mellett nem szerializálható sorrendben véglegesíthetők.
- Kijavítottunk egy hibát, amely miatt az OPTIMIZE parancs meghiúsulhatott, amikor az ANSI SQL-dialektus engedélyezve volt.
- 2022. január 19.
- Bevezettük az ideiglenes hitelesítő adatok beillesztését a forrásadatok betöltéséhez sql-ANY_FILE-engedélyek megkövetelése nélkül
- Kijavítottunk egy memóriakihasznált hibát, amely miatt a lekérdezési eredmények gyorsítótárazása bizonyos feltételek mellett történik.
- Kijavítottunk egy hibát, amely miatt
USE DATABASE
a felhasználó az aktuális katalógust nem alapértelmezett katalógusra kapcsolta. - Hibajavítások és biztonsági fejlesztések.
- Az operációs rendszer biztonsági frissítései.
- 2021. december 20.
- Kijavítottunk egy ritka hibát a Parquet oszlopindex-alapú szűréssel.
Databricks Runtime 10.0 (EoS)
Lásd: Databricks Runtime 10.0 (EoS).
- 2022. április 19.
- [SPARK-37270][SQL] A CaseWhen-ágakba összecsukható leküldés javítása, ha az elseValue üres
- Az operációs rendszer biztonsági frissítései.
- 2022. április 6.
- [SPARK-38631][CORE] Java-alapú implementációt használ az Utils.unpack kicsomagolásának feloldásához
- Az operációs rendszer biztonsági frissítései.
- 2022. március 22.
- [SPARK-38437][SQL] A datetime elenyenes szerializálása az adatforrásból
- [SPARK-38180][SQL] Biztonságos felfelé öntött kifejezések engedélyezése korrelált egyenlőségi predikátumokban
- [SPARK-38155][SQL] Eltérő aggregátumok kizárása oldalirányú al lekérdezésekben nem támogatott predikátumokkal
- [SPARK-38325][SQL] ANSI mód: elkerülheti a lehetséges futásidejű hibát a HashJoin.extractKeyExprAt()
- 2022. március 14.
- Továbbfejlesztett tranzakcióütközés-észlelés üres tranzakciókhoz a Delta Lake-ben.
- [SPARK-38185][SQL] Helytelen adatok javítása, ha az összesítő függvény üres
- [SPARK-38318][SQL] regresszió adathalmaznézet cseréjekor
- [SPARK-38236][SQL] A create/alter táblában megadott abszolút fájlelérési útvonalak relatívként lesznek kezelve
- [SPARK-35937][SQL] A dátummező időbélyegből való kinyerésének ANSI módban kell működnie
- [SPARK-34069][SQL] Az akadálymentesítési feladatoknak tiszteletben kell tartaniuk
SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-37707][SQL] Tároló hozzárendelésének engedélyezése a TimestampNTZ és a Date/Timestamp között
- 2022. február 23.
- [SPARK-37577][SQL] A ClassCastException javítása: A ArrayType nem adható át a StructType-ba a metszés létrehozásához
- 2022. február 8.
- [SPARK-27442][SQL] Az adatok parquetben való olvasása/írása során távolítsa el a jelölőnégyzet nevét.
- [SPARK-36905][SQL] A hive-nézetek olvasásának javítása explicit oszlopnevek nélkül
- [SPARK-37859][SQL] Kijavítottuk a hibát, amely miatt a Spark 3.1-zel JDBC-vel létrehozott SQL-táblák nem olvashatók a 3.2-vel
- Az operációs rendszer biztonsági frissítései.
- 2022. február 1.
- Az operációs rendszer biztonsági frissítései.
- 2022. január 26.
- Kijavítottunk egy hibát, amely miatt a Delta-táblák egyidejű tranzakciói bizonyos ritka feltételek mellett nem szerializálható sorrendben véglegesíthetők.
- Kijavítottunk egy hibát, amely miatt az OPTIMIZE parancs meghiúsulhatott, amikor az ANSI SQL-dialektus engedélyezve volt.
- 2022. január 19.
- Hibajavítások és biztonsági fejlesztések.
- Az operációs rendszer biztonsági frissítései.
- 2021. december 20.
- Kijavítottunk egy ritka hibát a Parquet oszlopindex-alapú szűréssel.
- 2021. november 9.
- További konfigurációs jelzőket vezetett be az ANSI-viselkedések részletes szabályozásához.
- 2021. november 4.
- Kijavítottunk egy hibát, amely miatt a strukturált streamek meghiúsulhattak egy ArrayIndexOutOfBoundsException használatával
- Kijavítottunk egy olyan versenyfeltételt, amely egy IOException-hez hasonló
java.io.IOException: No FileSystem for scheme
lekérdezési hibát okozhat, vagy amely miatt a módosításoksparkContext.hadoopConfiguration
nem lépnek érvénybe a lekérdezésekben. - Az Apache Spark Connector for Delta Sharing 0.2.0-ra lett frissítve.
- 2021. november 30.
- Kijavítottuk azt a hibát, amely miatt az időbélyeg-elemzés érvénytelennek minősült egy kettőspont nélküli időzónás sztring esetében.
- Kijavítottunk egy memóriakihasznált hibát, amely miatt a lekérdezési eredmények gyorsítótárazása bizonyos feltételek mellett történik.
- Kijavítottunk egy hibát, amely miatt
USE DATABASE
a felhasználó az aktuális katalógust nem alapértelmezett katalógusra kapcsolta.
Databricks Runtime 9.0 (EoS)
Lásd: Databricks Runtime 9.0 (EoS).
- 2022. február 8.
- Az operációs rendszer biztonsági frissítései.
- 2022. február 1.
- Az operációs rendszer biztonsági frissítései.
- 2022. január 26.
- Kijavítottunk egy hibát, amely miatt az OPTIMIZE parancs meghiúsulhatott, amikor az ANSI SQL-dialektus engedélyezve volt.
- 2022. január 19.
- Hibajavítások és biztonsági fejlesztések.
- Az operációs rendszer biztonsági frissítései.
- 2021. november 4.
- Kijavítottunk egy hibát, amely miatt a strukturált streamek meghiúsulhattak egy ArrayIndexOutOfBoundsException használatával
- Kijavítottunk egy olyan versenyfeltételt, amely egy IOException-hez hasonló
java.io.IOException: No FileSystem for scheme
lekérdezési hibát okozhat, vagy amely miatt a módosításoksparkContext.hadoopConfiguration
nem lépnek érvénybe a lekérdezésekben. - Az Apache Spark Connector for Delta Sharing 0.2.0-ra lett frissítve.
- 2021. szeptember 22.
- Kijavítottunk egy hibát az öntött Spark-tömbben null-sztringgel
- 2021. szeptember 15.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
- 2021. szeptember 8.
- A sémanév (
databaseName.schemaName.tableName
formátum) támogatása az Azure Synapse Connector céltáblájának neveként. - A hozzáadott geometriai és földrajzi JDBC-típusok támogatják a Spark SQL-t.
- [SPARK-33527][SQL] Kiterjesztette a dekódolás funkcióját, hogy összhangban legyen az általános adatbázisokkal.
- [SPARK-36532][CORE] [3.1] Kijavítottuk a holtpontot
CoarseGrainedExecutorBackend.onDisconnected
a végrehajtó leállásának elkerüléseexecutorsconnected
érdekében.
- A sémanév (
- 2021. augusztus 25.
- Az SQL Server illesztőprogram-kódtára 9.2.1.jre8-ra lett frissítve.
- A Snowflake-összekötő 2.9.0-ra lett frissítve.
- Kijavítottuk az AutoML-kísérlet lap legjobb próbaverziós jegyzetfüzetére mutató hibás hivatkozást.
Databricks Runtime 8.4 (EoS)
Lásd: Databricks Runtime 8.4 (EoS).
- 2022. január 19.
- Az operációs rendszer biztonsági frissítései.
- 2021. november 4.
- Kijavítottunk egy hibát, amely miatt a strukturált streamek meghiúsulhattak egy ArrayIndexOutOfBoundsException használatával
- Kijavítottunk egy olyan versenyfeltételt, amely egy IOException-hez hasonló
java.io.IOException: No FileSystem for scheme
lekérdezési hibát okozhat, vagy amely miatt a módosításoksparkContext.hadoopConfiguration
nem lépnek érvénybe a lekérdezésekben. - Az Apache Spark Connector for Delta Sharing 0.2.0-ra lett frissítve.
- 2021. szeptember 22.
- A Spark JDBC-illesztő frissítése 2.6.19.1030-ra történt
- [SPARK-36734][SQL] OrC frissítése 1.5.1-re
- 2021. szeptember 15.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
. - Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
- 2021. szeptember 8.
- [SPARK-36532][CORE] [3.1] Kijavítottuk a holtpontot
CoarseGrainedExecutorBackend.onDisconnected
a végrehajtó leállásának elkerüléseexecutorsconnected
érdekében.
- [SPARK-36532][CORE] [3.1] Kijavítottuk a holtpontot
- 2021. augusztus 25.
- Az SQL Server illesztőprogram-kódtára 9.2.1.jre8-ra lett frissítve.
- A Snowflake-összekötő 2.9.0-ra lett frissítve.
- Kijavít egy hibát a hitelesítő adatok átengedésében, amelyet az új Parquet-előletöltés optimalizálása okozott, ahol előfordulhat, hogy a felhasználó átengedési hitelesítő adatai nem találhatók a fájlelérés során.
- 2021. augusztus 11.
- Kijavítottunk egy Olyan RocksDB-kompatibilitási problémát, amely megakadályozza a régebbi Databricks Runtime 8.4-et. Ez kijavítja az automatikus betöltő
COPY INTO
és az állapotalapú streamelési alkalmazások kompatibilitását. - Kijavítottunk egy hibát, amikor az Automatikus betöltő használatával csV-fájlokat olvasunk a nem egyező fejlécfájlokkal. Ha az oszlopnevek nem egyeznek, az oszlop null értékekkel lesz kitöltve. Most, ha egy séma van megadva, feltételezi, hogy a séma ugyanaz, és csak akkor menti az oszlopeltéréseket, ha a mentett adatoszlopok engedélyezve vannak.
- Hozzáad egy új, az Azure Synapse-összekötőbe hívott
externalDataSource
lehetőséget, amely eltávolítja aCONTROL
PolyBase-olvasási adatbázis engedélykövetelményét.
- Kijavítottunk egy Olyan RocksDB-kompatibilitási problémát, amely megakadályozza a régebbi Databricks Runtime 8.4-et. Ez kijavítja az automatikus betöltő
- 2021. július 29.
- [SPARK-36034][BUILD] Dátum/idő újrabázisa leküldéses szűrőkben a Parquetbe
- [SPARK-36163][BUILD] A megfelelő JDBC-tulajdonságok propagálása a JDBC-összekötő szolgáltatójában, és beállítás hozzáadása
connectionProvider
Databricks Runtime 8.3 (EoS)
Lásd: Databricks Runtime 8.3 (EoS).
- 2022. január 19.
- Az operációs rendszer biztonsági frissítései.
- 2021. november 4.
- Kijavítottunk egy hibát, amely miatt a strukturált streamek meghiúsulhattak egy ArrayIndexOutOfBoundsException használatával
- Kijavítottunk egy olyan versenyfeltételt, amely egy IOException-hez hasonló
java.io.IOException: No FileSystem for scheme
lekérdezési hibát okozhat, vagy amely miatt a módosításoksparkContext.hadoopConfiguration
nem lépnek érvénybe a lekérdezésekben.
- 2021. szeptember 22.
- A Spark JDBC-illesztő frissítése 2.6.19.1030-ra történt
- 2021. szeptember 15.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
. - Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
- 2021. szeptember 8.
- [SPARK-35700][SQL] [WARMFIX] A char/varchar orc tábla olvasása külső rendszerek létrehozásakor és írásakor.
- [SPARK-36532][CORE] [3.1] Kijavítottuk a holtpontot
CoarseGrainedExecutorBackend.onDisconnected
a végrehajtó leállásának elkerüléseexecutorsconnected
érdekében.
- 2021. augusztus 25.
- Az SQL Server illesztőprogram-kódtára 9.2.1.jre8-ra lett frissítve.
- A Snowflake-összekötő 2.9.0-ra lett frissítve.
- Kijavít egy hibát a hitelesítő adatok átengedésében, amelyet az új Parquet-előletöltés optimalizálása okozott, ahol előfordulhat, hogy a felhasználó átengedési hitelesítő adatai nem találhatók a fájlelérés során.
- 2021. augusztus 11.
- Kijavítottunk egy hibát, amikor az Automatikus betöltő használatával csV-fájlokat olvasunk a nem egyező fejlécfájlokkal. Ha az oszlopnevek nem egyeznek, az oszlop null értékekkel lesz kitöltve. Most, ha egy séma van megadva, feltételezi, hogy a séma ugyanaz, és csak akkor menti az oszlopeltéréseket, ha a mentett adatoszlopok engedélyezve vannak.
- 2021. július 29.
- A Databricks Snowflake Spark-összekötő frissítése a 2.9.0-spark-3.1-re
- [SPARK-36034][BUILD] Dátum/idő újrabázisa leküldéses szűrőkben a Parquetbe
- [SPARK-36163][BUILD] A megfelelő JDBC-tulajdonságok propagálása a JDBC-összekötő szolgáltatójában, és beállítás hozzáadása
connectionProvider
- 2021. július 14.
- Kijavítottunk egy hibát az oszlopnevek pontokkal való használatakor az Azure Synapse-összekötőben.
- A Synapse Connector bevezetett
database.schema.table
formátuma. - Támogatás hozzáadva a formátum céltáblaként való megadásához
databaseName.schemaName.tableName
ahelyett, hogy csak vagytableName
csakschemaName.tableName
.
- 2021. június 15.
- Kijavítottunk egy
NoSuchElementException
hibát a Delta Lake által optimalizált írásokban, amelyek nagy mennyiségű adat írása és végrehajtói veszteségek esetén fordulhatnak elő - SQL
CREATE GROUP
,DROP GROUP
, ,ALTER GROUP
SHOW GROUPS
ésSHOW USERS
parancsokat ad hozzá. További részletekért lásd a biztonsági utasításokat és a megjelenítési utasításokat.
- Kijavítottunk egy
Databricks Runtime 8.2 (EoS)
Lásd: Databricks Runtime 8.2 (EoS).
2021. szeptember 22.
- Az operációs rendszer biztonsági frissítései.
2021. szeptember 15.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
2021. szeptember 8.
- [SPARK-35700][SQL] [WARMFIX] A char/varchar orc tábla olvasása külső rendszerek létrehozásakor és írásakor.
- [SPARK-36532][CORE] [3.1] Kijavítottuk a holtpontot
CoarseGrainedExecutorBackend.onDisconnected
a végrehajtó leállásának elkerüléseexecutorsconnected
érdekében.
2021. augusztus 25.
- A Snowflake-összekötő 2.9.0-ra lett frissítve.
2021. augusztus 11.
- [SPARK-36034][SQL] A dátumidő újrabázisa leküldéses szűrőkben a parquetbe.
2021. július 29.
- A Databricks Snowflake Spark-összekötő frissítése a 2.9.0-spark-3.1-re
- [SPARK-36163][BUILD] A megfelelő JDBC-tulajdonságok propagálása a JDBC-összekötő szolgáltatójában, és beállítás hozzáadása
connectionProvider
2021. július 14.
- Kijavítottunk egy hibát az oszlopnevek pontokkal való használatakor az Azure Synapse-összekötőben.
- A Synapse Connector bevezetett
database.schema.table
formátuma. - Támogatás hozzáadva a formátum céltáblaként való megadásához
databaseName.schemaName.tableName
ahelyett, hogy csak vagytableName
csakschemaName.tableName
. - Kijavítottunk egy hibát, amely megakadályozza, hogy a felhasználók a Delta-táblákkal a régebbi elérhető verziókra utaznak.
2021. június 15.
- Kijavít egy
NoSuchElementException
hibát a Delta Lake által optimalizált írásokban, amelyek nagy mennyiségű adat írása és végrehajtói veszteségek esetén fordulhatnak elő
- Kijavít egy
2021. május 26.
- A Python biztonsági résének (CVE-2021-3177) javítása érdekében biztonsági javítással frissítettük a Pythont.
2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
- [SPARK-34245][CORE] Győződjön meg arról, hogy a főkiszolgáló eltávolítja azokat a végrehajtókat, amelyek nem küldték el a kész állapotot
- Kijavítottunk egy OOM-hibát, amikor az automatikus betöltő strukturált streamelési folyamatmetrikákat jelent.
Databricks Runtime 8.1 (EoS)
Lásd: Databricks Runtime 8.1 (EoS).
2021. szeptember 22.
- Az operációs rendszer biztonsági frissítései.
2021. szeptember 15.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
2021. szeptember 8.
- [SPARK-35700][SQL] [WARMFIX] A char/varchar orc tábla olvasása külső rendszerek létrehozásakor és írásakor.
- [SPARK-36532][CORE] [3.1] Kijavítottuk a holtpontot
CoarseGrainedExecutorBackend.onDisconnected
a végrehajtó leállásának elkerüléseexecutorsconnected
érdekében.
2021. augusztus 25.
- A Snowflake-összekötő 2.9.0-ra lett frissítve.
2021. augusztus 11.
- [SPARK-36034][SQL] A dátumidő újrabázisa leküldéses szűrőkben a parquetbe.
2021. július 29.
- A Databricks Snowflake Spark-összekötő frissítése a 2.9.0-spark-3.1-re
- [SPARK-36163][BUILD] A megfelelő JDBC-tulajdonságok propagálása a JDBC-összekötő szolgáltatójában, és beállítás hozzáadása
connectionProvider
2021. július 14.
- Kijavítottunk egy hibát az oszlopnevek pontokkal való használatakor az Azure Synapse-összekötőben.
- Kijavítottunk egy hibát, amely megakadályozza, hogy a felhasználók a Delta-táblákkal a régebbi elérhető verziókra utaznak.
2021. június 15.
- Kijavít egy
NoSuchElementException
hibát a Delta Lake által optimalizált írásokban, amelyek nagy mennyiségű adat írása és végrehajtói veszteségek esetén fordulhatnak elő
- Kijavít egy
2021. május 26.
- A Python biztonsági résének (CVE-2021-3177) javítása érdekében biztonsági javítással frissítettük a Pythont.
2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
- Kijavítottunk egy OOM-hibát, amikor az automatikus betöltő strukturált streamelési folyamatmetrikákat jelent.
2021. április 27.
- [SPARK-34245][CORE] Győződjön meg arról, hogy a főkiszolgáló eltávolítja azokat a végrehajtókat, amelyek nem küldték el a kész állapotot
- [SPARK-34856][SQL] ANSI mód: Összetett típusok sztringtípusként való leadása engedélyezése
- [SPARK-35014] Javítsa ki a PhysicalAggregation mintát, hogy ne írja újra az összehajtható kifejezéseket
- [SPARK-34769][SQL] AnsiTypeCoercion: a TypeCollection között a legszűkebb átalakítható típust adja vissza
- [SPARK-34614][SQL] ANSI mód: A sztring logikai értékre történő kiírása kivételt eredményez az elemzési hiba esetén
- [SPARK-33794][SQL] ANSI mód: A NextDay kifejezés javítása a futtatókörnyezet IllegalArgumentException parancsának megadásához, ha érvénytelen bemenetet kap a következő területen:
Databricks Runtime 8.0 (EoS)
Lásd: Databricks Runtime 8.0 (EoS).
2021. szeptember 15.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
2021. augusztus 25.
- A Snowflake-összekötő 2.9.0-ra lett frissítve.
2021. augusztus 11.
- [SPARK-36034][SQL] A dátumidő újrabázisa leküldéses szűrőkben a parquetbe.
2021. július 29.
- [SPARK-36163][BUILD] A megfelelő JDBC-tulajdonságok propagálása a JDBC-összekötő szolgáltatójában, és beállítás hozzáadása
connectionProvider
- [SPARK-36163][BUILD] A megfelelő JDBC-tulajdonságok propagálása a JDBC-összekötő szolgáltatójában, és beállítás hozzáadása
2021. július 14.
- Kijavítottunk egy hibát az oszlopnevek pontokkal való használatakor az Azure Synapse-összekötőben.
- Kijavítottunk egy hibát, amely megakadályozza, hogy a felhasználók a Delta-táblákkal a régebbi elérhető verziókra utaznak.
2021. május 26.
- A Python biztonsági résének (CVE-2021-3177) javítása érdekében biztonsági javítással frissítettük a Pythont.
2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
- [SPARK-34245][CORE] Győződjön meg arról, hogy a főkiszolgáló eltávolítja azokat a végrehajtókat, amelyek nem küldték el a kész állapotot
2021. március 24.
- [SPARK-34681][SQL] Kijavítottuk a teljes külső elfojtott kivonatillesztés hibáját, ha a bal oldalt nem egyenlő feltétellel építik
- [SPARK-34534] BlockIds-sorrend javítása a FetchShuffleBlocks használata blokkok lekéréséhez
- [SPARK-34613][SQL] A fix nézet nem rögzíti a letiltási tipp konfigurációjának rögzítését
2021. március 9., kedd
- [SPARK-34543][SQL] A konfiguráció tiszteletben tartása a
spark.sql.caseSensitive
partíciós specifikáció feloldása közben az 1-benSET LOCATION
- [SPARK-34392][SQL] A ZoneOffset +h:mm támogatása a DateTimeUtilsben. getZoneId
- [Felhasználói felület] A Spark DAG-vizualizáció href hivatkozásának javítása
- [SPARK-34436][SQL] A DPP támogatja a LIKE ANY/ALL kifejezést
- [SPARK-34543][SQL] A konfiguráció tiszteletben tartása a
Databricks Runtime 7.6 (EoS)
Lásd: Databricks Runtime 7.6 (EoS).
- 2021. augusztus 11.
- [SPARK-36034][SQL] A dátumidő újrabázisa leküldéses szűrőkben a parquetbe.
- 2021. július 29.
- [SPARK-32998][BUILD] Az alapértelmezett távoli adattárak felülbírálása csak belső adattárakkal
- 2021. július 14.
- Kijavítottunk egy hibát, amely megakadályozza, hogy a felhasználók a Delta-táblákkal a régebbi elérhető verziókra utaznak.
- 2021. május 26.
- A Python biztonsági résének (CVE-2021-3177) javítása érdekében biztonsági javítással frissítettük a Pythont.
- 2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
- [SPARK-34245][CORE] Győződjön meg arról, hogy a főkiszolgáló eltávolítja azokat a végrehajtókat, amelyek nem küldték el a kész állapotot
- 2021. március 24.
- [SPARK-34768][SQL] Az univocity alapértelmezett bemeneti pufferméretének tiszteletben tartása
- [SPARK-34534] BlockIds-sorrend javítása a FetchShuffleBlocks használata blokkok lekéréséhez
- 2021. március 9.
- (csak Azure) Kijavítottunk egy automatikus betöltő hibát, amely NullPointerException hibát okozhat a Databricks Runtime 7.6-os használatakor a Databricks Runtime 7.2-ben létrehozott régi automatikus betöltő stream futtatásához
- [Felhasználói felület] A Spark DAG-vizualizáció href hivatkozásának javítása
- Az ismeretlen levélcsomópont SparkPlan kezelése nem megfelelően történik a SizeInBytesOnlyStatsSparkPlanVisitor alkalmazásban
- A következő kimeneti sémájának visszaállítása:
SHOW DATABASES
- [Delta] [8.0, 7.6] Kijavítottuk a fájlméret automatikus finomhangolási logikáját érintő számítási hibát
- Delta-táblafájlok elavultságának letiltása a lemezgyorsítótárban
- [SQL] A helyes dinamikus metszési buildkulcs használata, ha a tartományillesztési tipp jelen van
- Karaktertípus támogatásának letiltása nem SQL-kód elérési útján
- Az NPE elkerülése a DataFrameReader.schema alkalmazásban
- Az NPE javítása, ha az EventGridClient-válasz nem tartalmaz entitást
- Beolvasott streamhibák kijavítása az Azure Auto Loaderben
- [SQL] Ha az AOS engedélyezve van, ne hozzon létre shuffle partíciószám-tanácsot
- 2021. február 24.
- Frissítette a Spark BigQuery-összekötőt a 0.18-ra, amely különböző hibajavításokat és a Arrow és Avro iterátorok támogatását mutatja be.
- Kijavítottunk egy hibát, amely miatt a Spark helytelen eredményeket adott vissza, ha a Parquet-fájl tizedes pontossága és mérete eltér a Spark-sémától.
- Kijavítottuk a térbeli adattípusokat tartalmazó Microsoft SQL Server-táblák olvasási hibáit a Spark SQL geometriai és földrajzi JDBC-típusainak támogatásával.
- Új konfigurációt
spark.databricks.hive.metastore.init.reloadFunctions.enabled
vezetett be. Ez a konfiguráció szabályozza a Beépített Hive-inicializálást. Ha igaz értékre van állítva, az Azure Databricks újra betölti az összes függvényt az összes olyan adatbázisból, amelybe a felhasználók be vannak állítvaFunctionRegistry
. Ez az alapértelmezett viselkedés a Hive Metastore-ban. Ha hamis értékre van állítva, az Azure Databricks letiltja ezt a folyamatot az optimalizáláshoz. - [SPARK-34212] Kijavítottuk a tizedesadatok Parquet-fájlokból való beolvasásával kapcsolatos problémákat.
- [SPARK-34260][SQL] Kijavíthatja az UnresolvedException hibát, amikor kétszer hoz létre ideiglenes nézetet.
Databricks Runtime 7.5 (EoS)
Lásd: Databricks Runtime 7.5 (EoS).
- 2021. május 26.
- A Python biztonsági résének (CVE-2021-3177) javítása érdekében biztonsági javítással frissítettük a Pythont.
- 2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
- [SPARK-34245][CORE] Győződjön meg arról, hogy a főkiszolgáló eltávolítja azokat a végrehajtókat, amelyek nem küldték el a kész állapotot
- 2021. március 24.
- [SPARK-34768][SQL] Az univocity alapértelmezett bemeneti pufferméretének tiszteletben tartása
- [SPARK-34534] BlockIds-sorrend javítása a FetchShuffleBlocks használata blokkok lekéréséhez
- 2021. március 9.
- (csak Azure) Kijavítottunk egy automatikus betöltő hibát, amely NullPointerException hibát okozhat a Databricks Runtime 7.5-ös használatakor a Databricks Runtime 7.2-ben létrehozott régi automatikus betöltő stream futtatásához.
- [Felhasználói felület] A Spark DAG-vizualizáció href hivatkozásának javítása
- Az ismeretlen levélcsomópont SparkPlan kezelése nem megfelelően történik a SizeInBytesOnlyStatsSparkPlanVisitor alkalmazásban
- A következő kimeneti sémájának visszaállítása:
SHOW DATABASES
- Delta-táblafájlok elavultságának letiltása a lemezgyorsítótárban
- [SQL] A helyes dinamikus metszési buildkulcs használata, ha a tartományillesztési tipp jelen van
- Karaktertípus támogatásának letiltása nem SQL-kód elérési útján
- Az NPE elkerülése a DataFrameReader.schema alkalmazásban
- Az NPE javítása, ha az EventGridClient-válasz nem tartalmaz entitást
- Beolvasott streamhibák kijavítása az Azure Auto Loaderben
- 2021. február 24.
- Frissítette a Spark BigQuery-összekötőt a 0.18-ra, amely különböző hibajavításokat és a Arrow és Avro iterátorok támogatását mutatja be.
- Kijavítottunk egy hibát, amely miatt a Spark helytelen eredményeket adott vissza, ha a Parquet-fájl tizedes pontossága és mérete eltér a Spark-sémától.
- Kijavítottuk a térbeli adattípusokat tartalmazó Microsoft SQL Server-táblák olvasási hibáit a Spark SQL geometriai és földrajzi JDBC-típusainak támogatásával.
- Új konfigurációt
spark.databricks.hive.metastore.init.reloadFunctions.enabled
vezetett be. Ez a konfiguráció szabályozza a Beépített Hive-inicializálást. Ha igaz értékre van állítva, az Azure Databricks újra betölti az összes függvényt az összes olyan adatbázisból, amelybe a felhasználók be vannak állítvaFunctionRegistry
. Ez az alapértelmezett viselkedés a Hive Metastore-ban. Ha hamis értékre van állítva, az Azure Databricks letiltja ezt a folyamatot az optimalizáláshoz. - [SPARK-34212] Kijavítottuk a tizedesadatok Parquet-fájlokból való beolvasásával kapcsolatos problémákat.
- [SPARK-34260][SQL] Kijavíthatja az UnresolvedException hibát, amikor kétszer hoz létre ideiglenes nézetet.
- 2021. február 4.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
SELECT * FROM table LIMIT nrows
. A regressziót az ODBC/JDBC-n keresztül lekérdezéseket futtató felhasználók tapasztalták, és engedélyezve volt a nyíl szerializálása. - Bevezettük az írási idő ellenőrzését a Hive-ügyfélnek, hogy megakadályozzák a Metaadatok sérülését a Hive metaadattárában a Delta-táblákhoz.
- Kijavítottunk egy regressziót, amely miatt a DBFS FUSE nem indult el, amikor a fürtkörnyezet változókonfigurációi érvénytelen bash szintaxist tartalmaznak.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
- 2021. január 20.
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
df.join(df.select($"col" as "new_col"), cond)
- A származtatott DataFrame kizár néhány oszlopot a kiválasztás, a groupBy vagy az ablak használatával.
- Az illesztési feltétel vagy a következő átalakítás az összekapcsolt adatkeret után a nem gyakori oszlopokra vonatkozik. Például:
df.join(df.drop("a"), df("a") === 1)
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
- 2021. január 12.
- Frissítse az Azure Storage SDK-t a 2.3.8-ról a 2.3.9-re.
- [SPARK-33593][SQL] A vektorolvasó helytelen adatokat kapott bináris partícióértékkel
- [SPARK-33480]Az [SQL] frissíti a karakter/varchar tábla beszúrási hosszának ellenőrzésére vonatkozó hibaüzenetet
Databricks Runtime 7.3 LTS (EoS)
Lásd: Databricks Runtime 7.3 LTS (EoS).
2023. szeptember 10.
- Egyéb hibajavítások.
2023. augusztus 30.
- Az operációs rendszer biztonsági frissítései.
2023. augusztus 15.
- Az operációs rendszer biztonsági frissítései.
2023. június 23.
- A Snowflake-jdbc kódtár 3.13.29-re frissül egy biztonsági probléma megoldásához.
- Az operációs rendszer biztonsági frissítései.
2023. június 15.
- [SPARK-43413][SQL] A subquery
ListQuery
nullability javításaIN
. - Az operációs rendszer biztonsági frissítései.
- [SPARK-43413][SQL] A subquery
2023. június 2.
- Kijavítottunk egy hibát az Automatikus betöltőben, amelyben a különböző forrásfájlformátumok inkonzisztensek voltak, amikor a megadott séma nem tartalmazott következtetéses partíciókat. Ez a probléma váratlan hibákat okozhat a hiányzó oszlopokat tartalmazó fájlok olvasása során a késleltetett partíciós sémában.
2023. május 17.
- Az operációs rendszer biztonsági frissítései.
2023. április 25.
- Az operációs rendszer biztonsági frissítései.
2023. április 11., kedd
- [SPARK-42967][CORE] A SparkListenerTaskStart.stageAttemptId javítása, ha egy tevékenység a szakasz megszakítása után indul el.
- Egyéb hibajavítások.
2023. március 29.
- Az operációs rendszer biztonsági frissítései.
2023. március 14.
- Egyéb hibajavítások.
2023. február 28.
- Az operációs rendszer biztonsági frissítései.
2023. február 16.
- Az operációs rendszer biztonsági frissítései.
2023. január 31.
- A JDBC-táblák táblázattípusai alapértelmezés szerint KÜLSŐek.
2023. január 18.
- Az operációs rendszer biztonsági frissítései.
2022. november 29.
- Egyéb hibajavítások.
2022. november 15.
- Az Apache commons-text frissítése 1.10.0-ra.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. november 1.
- [SPARK-38542][SQL] A UnsafeHashedRelation szerializálja a numKeys out értékét
2022. október 18.
- Az operációs rendszer biztonsági frissítései.
2022. október 5., szerda
- Egyéb hibajavítások.
- Az operációs rendszer biztonsági frissítései.
2022. szeptember 22.
- [SPARK-40089][SQL] Néhány decimális típus rendezésének javítása
2022. szeptember 6.
- [SPARK-35542][CORE] [ML] Javítás: A splitsArray, inputCols és outputCols paraméterekkel rendelkező több oszlophoz létrehozott gyűjtő nem tölthető be a mentés után
- [SPARK-40079][CORE] Imputer inputCols-ellenőrzés hozzáadása üres bemeneti esethez
2022. augusztus 24.
- [SPARK-39962][PYTHON] [SQL] Vetítés alkalmazása üres csoportattribútumok esetén
- Az operációs rendszer biztonsági frissítései.
2022. augusztus 9., kedd
- Az operációs rendszer biztonsági frissítései.
2022. július 27.
- A Delta MERGE művelet eredményeinek konzisztenssé tétele, ha a forrás nem determinisztikus.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. július 13.
- [SPARK-32680][SQL] Ne dolgozza fel a V2 CTAS-t megoldatlan lekérdezéssel
- Letiltotta az automatikus betöltő natív felhő API-k használatát az Azure címtárlistáihoz.
- Az operációs rendszer biztonsági frissítései.
2022. július 5.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. június 2.
- [SPARK-38918][SQL] A beágyazott oszlopmetszetnek kiszűrnie kell azokat az attribútumokat, amelyek nem tartoznak az aktuális relációhoz
- Az operációs rendszer biztonsági frissítései.
2022. május 18.
- Frissítse az AWS SDK 1.11.655-ös verzióját 1.11.678-ra.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. április 19.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. április 6.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. március 14.
- Sebezhető osztályok eltávolítása a log4j 1.2.17 jar-ból
- Egyéb hibajavítások.
2022. február 23.
- [SPARK-37859][SQL] Metaadatok keresése a séma-összehasonlítás során
2022. február 8.
- Frissítse az Ubuntu JDK-t 1.8.0.312-re.
- Az operációs rendszer biztonsági frissítései.
2022. február 1., kedd
- Az operációs rendszer biztonsági frissítései.
2022. január 26.
- Kijavítottunk egy hibát, amely miatt az OPTIMIZE parancs meghiúsulhatott, amikor az ANSI SQL-dialektus engedélyezve volt.
2022. január 19.
- A Conda alapértelmezett csatornája el lett távolítva a 7,3 ML LTS-ből
- Az operációs rendszer biztonsági frissítései.
2021. december 7.
- Az operációs rendszer biztonsági frissítései.
2021. november 4.
- Kijavítottunk egy hibát, amely miatt a strukturált streamek meghiúsulhattak egy ArrayIndexOutOfBoundsException használatával
- Kijavítottunk egy olyan versenyfeltételt, amely egy IOException-hez hasonló
java.io.IOException: No FileSystem for scheme
lekérdezési hibát okozhat, vagy amely miatt a módosításoksparkContext.hadoopConfiguration
nem lépnek érvénybe a lekérdezésekben.
2021. szeptember 15.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
. - Az operációs rendszer biztonsági frissítései.
- Kijavítottunk egy olyan versenyfeltételt, amely lekérdezési hibát okozhatott egy IOException(például
2021. szeptember 8.
- [SPARK-35700][SQL] [WARMFIX] A char/varchar orc tábla olvasása külső rendszerek létrehozásakor és írásakor.
- [SPARK-36532][CORE] [3.1] Kijavítottuk a holtpontot
CoarseGrainedExecutorBackend.onDisconnected
a végrehajtó leállásának elkerüléseexecutorsconnected
érdekében.
2021. augusztus 25.
- A Snowflake-összekötő 2.9.0-ra lett frissítve.
2021. július 29.
- [SPARK-36034][BUILD] Dátum/idő újrabázisa leküldéses szűrőkben a Parquetbe
- [SPARK-34508][BUILD] Kihagyás
HiveExternalCatalogVersionsSuite
, ha a hálózat leállt
2021. július 14.
- Az Azure Synapse-összekötő bevezetett
database.schema.table
formátuma. - Támogatás hozzáadva a formátum céltáblaként való megadásához
databaseName.schemaName.tableName
ahelyett, hogy csak vagytableName
csakschemaName.tableName
. - Kijavítottunk egy hibát, amely megakadályozza, hogy a felhasználók a Delta-táblákkal a régebbi elérhető verziókra utaznak.
- Az Azure Synapse-összekötő bevezetett
2021. június 15.
- Kijavít egy
NoSuchElementException
hibát a Delta Lake által optimalizált írásokban, amelyek nagy mennyiségű adat írása és végrehajtói veszteségek esetén fordulhatnak elő - A Python biztonsági résének (CVE-2021-3177) javítása érdekében biztonsági javítással frissítettük a Pythont.
- Kijavít egy
2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
- [SPARK-34245][CORE] Győződjön meg arról, hogy a főkiszolgáló eltávolítja azokat a végrehajtókat, amelyek nem küldték el a kész állapotot
- [SPARK-35045][SQL] Belső beállítás hozzáadása a bemeneti puffer meghívásos vezérléséhez
2021. március 24.
- [SPARK-34768][SQL] Az univocity alapértelmezett bemeneti pufferméretének tiszteletben tartása
- [SPARK-34534] BlockIds-sorrend javítása a FetchShuffleBlocks használata blokkok lekéréséhez
- [SPARK-33118][SQL] A CREATE ideiglenes tábla helyével meghiúsul
2021. március 9., kedd
- Az Azure Data Lake Storage Gen2 frissített Azure Blob fájlrendszer-illesztőprogramja alapértelmezés szerint engedélyezve van. Több stabilitási fejlesztést is eredményez.
- Elérésiút-elválasztó javítása Windows rendszeren
databricks-connect get-jar-dir
- [Felhasználói felület] A Spark DAG-vizualizáció href hivatkozásának javítása
- [DBCONNECT] Támogatás hozzáadása a FlatMapCoGroupsInPandashoz a Databricks Connect 7.3-ban
- A következő kimeneti sémájának visszaállítása:
SHOW DATABASES
- [SQL] A helyes dinamikus metszési buildkulcs használata, ha a tartományillesztési tipp jelen van
- Delta-táblafájlok elavultságának letiltása a lemezgyorsítótárban
- [SQL] Ha az AOS engedélyezve van, ne hozzon létre shuffle partíciószám-tanácsot
2021. február 24.
- Frissítette a Spark BigQuery-összekötőt a 0.18-ra, amely különböző hibajavításokat és a Arrow és Avro iterátorok támogatását mutatja be.
- Kijavítottunk egy hibát, amely miatt a Spark helytelen eredményeket adott vissza, ha a Parquet-fájl tizedes pontossága és mérete eltér a Spark-sémától.
- Kijavítottuk a térbeli adattípusokat tartalmazó Microsoft SQL Server-táblák olvasási hibáit a Spark SQL geometriai és földrajzi JDBC-típusainak támogatásával.
- Új konfigurációt
spark.databricks.hive.metastore.init.reloadFunctions.enabled
vezetett be. Ez a konfiguráció szabályozza a Beépített Hive-inicializálást. Ha igaz értékre van állítva, az Azure Databricks újra betölti az összes függvényt az összes olyan adatbázisból, amelybe a felhasználók be vannak állítvaFunctionRegistry
. Ez az alapértelmezett viselkedés a Hive Metastore-ban. Ha hamis értékre van állítva, az Azure Databricks letiltja ezt a folyamatot az optimalizáláshoz. - [SPARK-34212] Kijavítottuk a tizedesadatok Parquet-fájlokból való beolvasásával kapcsolatos problémákat.
- [SPARK-33579][Felhasználói felület] A végrehajtó üres lapjának javítása proxy mögött.
- [SPARK-20044][Felhasználói felület] Támogatja a Spark felhasználói felületét az előtér-fordított proxy mögött egy elérésiút-előtag használatával.
- [SPARK-33277][PYSPARK] [SQL] A Tevékenység befejezése után a ContextAwareIterator használatával leállítja a használatot.
2021. február 4.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
SELECT * FROM table LIMIT nrows
. A regressziót az ODBC/JDBC-n keresztül lekérdezéseket futtató felhasználók tapasztalták, és engedélyezve volt a nyíl szerializálása. - Kijavítottunk egy regressziót, amely miatt a DBFS FUSE nem indult el, amikor a fürtkörnyezet változókonfigurációi érvénytelen bash szintaxist tartalmaznak.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
2021. január 20.
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
df.join(df.select($"col" as "new_col"), cond)
- A származtatott DataFrame kizár néhány oszlopot a kiválasztás, a groupBy vagy az ablak használatával.
- Az illesztési feltétel vagy a következő átalakítás az összekapcsolt adatkeret után a nem gyakori oszlopokra vonatkozik. Például:
df.join(df.drop("a"), df("a") === 1)
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
2021. január 12
- Az operációs rendszer biztonsági frissítései.
- [SPARK-33593][SQL] A vektorolvasó helytelen adatokat kapott bináris partícióértékkel
- [SPARK-33677][SQL] A LikeSimplification szabály kihagyása, ha a minta tartalmaz escapeChar értéket
- [SPARK-33592][ML] [PYTHON] A Pyspark ML Validator params in estimatorParamMaps is lost after saving and reloading
- [SPARK-33071][SPARK-33536] [SQL] A DetectAmbiguousSelfJoin megszakításának elkerülése érdekében ne módosítsa a LogicalPlan dataset_id az illesztés() során
2020. december 8., kedd
- [SPARK-33587][CORE] A végrehajtó megölése beágyazott végzetes hibákon
- [SPARK-27421][SQL] A java.lang.String int oszlop és értékosztály szűrőjének javítása partícióoszlop metszésekor
- [SPARK-33316][SQL] A támogatási felhasználó null értékű Avro-sémát adott meg a nem null értékű katalizátorsémához az Avro írásában
- A Databricks Connect használatával indított Spark-feladatok határozatlan ideig lefagyhatnak a végrehajtói verem nyomkövetésével
Executor$TaskRunner.$anonfun$copySessionState
- Az operációs rendszer biztonsági frissítései.
2020. december 1., kedd
- [SPARK-33404][SQL] [3.0] Helytelen eredmények javítása a kifejezésben
date_trunc
- [SPARK-33339][PYTHON] A Pyspark-alkalmazás nem kivételhiba miatt lefagy
- [SPARK-33183][SQL] [GYORSJAVÍTÁS] Az optimalizálási szabály megszüntetésesorok javítása és egy fizikai szabály hozzáadása a redundáns rendezések eltávolításához
- [SPARK-33371][PYTHON] [3.0] A Python 3.9 setup.py és tesztjeinek frissítése
- [SPARK-33391][SQL] element_at a CreateArray nem tart tiszteletben egy alapú indexet.
- [SPARK-33306][SQL] Időzónára van szükség a dátum sztringre történő leadásakor
- [SPARK-33260][SQL] A SortExec helytelen eredményeinek javítása, ha a sortOrder stream
- [SPARK-33404][SQL] [3.0] Helytelen eredmények javítása a kifejezésben
2020. november 5.
- Javítsa ki az ABFS és a WASB zárolását a
UserGroupInformation.getCurrentUser()
. - Kijavítottunk egy végtelen hurokhibát, amikor az Avro-olvasó felolvassa a MAGIC bájtokat.
- A USAGE jogosultság támogatásának hozzáadása.
- Teljesítménybeli fejlesztések a táblahozzáférés-vezérlés jogosultság-ellenőrzéséhez.
- Javítsa ki az ABFS és a WASB zárolását a
2020. október 13.
- Az operációs rendszer biztonsági frissítései.
- A DBFS-ből a /dbfs/ címen található FUSE-csatlakoztatással olvashat és írhat, ha magas egyidejűségi hitelesítőadat-átengedés engedélyezett fürtön van. A normál csatlakoztatások támogatottak, de az átmenő hitelesítő adatokat igénylő csatlakoztatások még nem támogatottak.
- [SPARK-32999][SQL] A Utils.getSimpleName használatával elkerülheti a hibásan formázott osztály nevét a TreeNode-ban
- [SPARK-32585][SQL] Scala-számbavétel támogatása a ScalaReflection szolgáltatásban
- Kijavítottuk az érvénytelen XML-karaktereket tartalmazó listakönyvtárakat a FUSE-csatlakoztatásban
- A FUSE-csatlakoztatás már nem használja a ListMultipartUploads szolgáltatást
2020. szeptember 29.
- [SPARK-32718][SQL] Az intervallumegységek szükségtelen kulcsszavainak eltávolítása
- [SPARK-32635][SQL] Összecsukható propagálás javítása
- Új konfiguráció
spark.shuffle.io.decoder.consolidateThreshold
hozzáadása . Állítsa be a konfigurációs értéket úgy, hogyLong.MAX_VALUE
kihagyja a netty FrameBuffers összesítését, ami megakadályozzajava.lang.IndexOutOfBoundsException
a sarokeseteket.
2023. április 25.
- Az operációs rendszer biztonsági frissítései.
2023. április 11., kedd
- Egyéb hibajavítások.
2023. március 29.
- Egyéb hibajavítások.
2023. március 14.
- Az operációs rendszer biztonsági frissítései.
2023. február 28.
- Az operációs rendszer biztonsági frissítései.
2023. február 16.
- Az operációs rendszer biztonsági frissítései.
2023. január 31.
- Egyéb hibajavítások.
2023. január 18.
- Az operációs rendszer biztonsági frissítései.
2022. november 29.
- Az operációs rendszer biztonsági frissítései.
2022. november 15.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. november 1.
- Az operációs rendszer biztonsági frissítései.
2022. október 18.
- Az operációs rendszer biztonsági frissítései.
- 2022. október 5.
- Az operációs rendszer biztonsági frissítései.
- 2022. augusztus 24.
- Az operációs rendszer biztonsági frissítései.
- 2022. augusztus 9.
- Az operációs rendszer biztonsági frissítései.
- 2022. július 27.
- Az operációs rendszer biztonsági frissítései.
- 2022. július 5.
- Az operációs rendszer biztonsági frissítései.
- 2022. június 2.
- Az operációs rendszer biztonsági frissítései.
- 2022. május 18.
- Az operációs rendszer biztonsági frissítései.
- 2022. április 19.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
- 2022. április 6.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
- 2022. március 14.
- Egyéb hibajavítások.
- 2022. február 23.
- Egyéb hibajavítások.
- 2022. február 8.
- Frissítse az Ubuntu JDK-t 1.8.0.312-re.
- Az operációs rendszer biztonsági frissítései.
- 2022. február 1.
- Az operációs rendszer biztonsági frissítései.
- 2022. január 19.
- Az operációs rendszer biztonsági frissítései.
- 2021. szeptember 22.
- Az operációs rendszer biztonsági frissítései.
- 2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
- 2021. január 12.
- Az operációs rendszer biztonsági frissítései.
- 2020. december 8.
- [SPARK-27421][SQL] A java.lang.String int oszlop és értékosztály szűrőjének javítása partícióoszlop metszésekor
- Az operációs rendszer biztonsági frissítései.
- 2020. december 1., kedd
- [SPARK-33260][SQL] A SortExec helytelen eredményeinek javítása, ha a sortOrder stream
- 2020. november 3.
- Frissített Java-verzió az 1.8.0_252-es verzióról 1.8.0_265-re.
- Az ABFS és a WASB zárolásának javítása a UserGroupInformation.getCurrentUser() vonatkozásában
- 2020. október 13.
- Az operációs rendszer biztonsági frissítései.
A Databricks Runtime 6.4 kiterjesztett támogatása (EoS)
Lásd: Databricks Runtime 6.4 (EoS) és Databricks Runtime 6.4 Kiterjesztett támogatás (EoS).
2022. július 5.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. június 2.
- Az operációs rendszer biztonsági frissítései.
2022. május 18.
- Az operációs rendszer biztonsági frissítései.
2022. április 19.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. április 6.
- Az operációs rendszer biztonsági frissítései.
- Egyéb hibajavítások.
2022. március 14.
- Sebezhető osztályok eltávolítása a log4j 1.2.17 jar-ból
- Egyéb hibajavítások.
2022. február 23.
- Egyéb hibajavítások.
2022. február 8.
- Frissítse az Ubuntu JDK-t 1.8.0.312-re.
- Az operációs rendszer biztonsági frissítései.
2022. február 1., kedd
- Az operációs rendszer biztonsági frissítései.
2022. január 26.
- Kijavítottunk egy hibát, amely miatt az OPTIMIZE parancs meghiúsulhatott, amikor az ANSI SQL-dialektus engedélyezve volt.
2022. január 19.
- Az operációs rendszer biztonsági frissítései.
2021. december 8.
- Az operációs rendszer biztonsági frissítései.
2021. szeptember 22.
- Az operációs rendszer biztonsági frissítései.
2021. június 15.
- [SPARK-35576][SQL] A bizalmas adatok újrakonfigurálása a Beállítás parancs eredményében
2021. június 7.
- Adjon hozzá egy új, vesszővel tagolt sztringkonfigurációt
spark.sql.maven.additionalRemoteRepositories
az opcionális további távoli maven-tükörhez. Az érték alapértelmezés szerint a következő.https://maven-central.storage-download.googleapis.com/maven2/
- Adjon hozzá egy új, vesszővel tagolt sztringkonfigurációt
2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
2021. március 9., kedd
- Port HADOOP-17215 az Azure Blob Fájlrendszer illesztőprogramjához (feltételes felülírás támogatása).
- Elérésiút-elválasztó javítása Windows rendszeren
databricks-connect get-jar-dir
- Támogatott a Hive metaadattár 2.3.5-ös, 2.3.6-os és 2.3.7-ös verziója
- A "totalResultsCollected" nyíl helytelenül jelentve a kiömlés után
2021. február 24.
- Új konfigurációt
spark.databricks.hive.metastore.init.reloadFunctions.enabled
vezetett be. Ez a konfiguráció szabályozza a Beépített Hive-inicializálást. Ha igaz értékre van állítva, az Azure Databricks újra betölti az összes függvényt az összes olyan adatbázisból, amelybe a felhasználók be vannak állítvaFunctionRegistry
. Ez az alapértelmezett viselkedés a Hive Metastore-ban. Ha hamis értékre van állítva, az Azure Databricks letiltja ezt a folyamatot az optimalizáláshoz.
- Új konfigurációt
2021. február 4.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
SELECT * FROM table LIMIT nrows
. A regressziót az ODBC/JDBC-n keresztül lekérdezéseket futtató felhasználók tapasztalták, és engedélyezve volt a nyíl szerializálása. - Kijavítottunk egy regressziót, amely miatt a DBFS FUSE nem indult el, amikor a fürtkörnyezet változókonfigurációi érvénytelen bash szintaxist tartalmaznak.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
2021. január 12
- Az operációs rendszer biztonsági frissítései.
2020. december 8., kedd
- [SPARK-27421][SQL] A java.lang.String int oszlop és értékosztály szűrőjének javítása partícióoszlop metszésekor
- [SPARK-33183][SQL] Az optimalizálási szabály megszüntetésesorok javítása és egy fizikai szabály hozzáadása a redundáns rendezések eltávolításához
- [Runtime 6.4 ML GPU] Korábban az NCCL helytelen verzióját (2.7.8-1+cuda11.1) telepítettük. Ez a kiadás a CUDA 10.0-val kompatibilis 2.4.8-1+cuda10.0 verzióra javítja ki.
- Az operációs rendszer biztonsági frissítései.
2020. december 1., kedd
- [SPARK-33260][SQL] A SortExec helytelen eredményeinek javítása, ha a sortOrder stream
- [SPARK-32635][SQL] Összecsukható propagálás javítása
2020. november 3.
- Frissített Java-verzió az 1.8.0_252-es verzióról 1.8.0_265-re.
- Az ABFS és a WASB zárolásának javítása a UserGroupInformation.getCurrentUser() vonatkozásában
- Javítsa ki az Avro-olvasó végtelen hurokhibáját a MAGIC bájtok olvasása közben.
2020. október 13.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-32999][SQL] [2.4] Használja az Utils.getSimpleName parancsot, hogy elkerülje a hibásan formázott osztálynevet a TreeNode-ban
- Kijavítottuk az érvénytelen XML-karaktereket tartalmazó listakönyvtárakat a FUSE-csatlakoztatásban
- A FUSE-csatlakoztatás már nem használja a ListMultipartUploads szolgáltatást
2020. szeptember 24.
- Kijavítottunk egy korábbi korlátozást, amely miatt a standard fürtre vonatkozó átengedés továbbra is korlátozta a fájlrendszer-implementáció felhasználó általi használatát. Mostantól a felhasználók korlátozás nélkül hozzáférhetnek a helyi fájlrendszerekhez.
- Az operációs rendszer biztonsági frissítései.
2020. szeptember 8., kedd
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
maxbinlength
Ez a paraméter a BinaryType oszlopok oszlophosszának szabályozására szolgál, és lefordítva.VARBINARY(maxbinlength)
A beállítás a következővel.option("maxbinlength", n)
állítható be: 0 < n <= 8000. - Frissítse az Azure Storage SDK-t a 8.6.4-re, és engedélyezze a TCP életben tartását a WASB-illesztőprogram által létesített kapcsolatokon
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
2020. augusztus 25.
- Kijavítottuk a nem egyértelmű attribútumfeloldást az önegyesítés során
2020. augusztus 18.
- [SPARK-32431][SQL] Ismétlődő beágyazott oszlopok ellenőrzése beépített adatforrásokból származó olvasásban
- Kijavítottunk egy versenyfeltételt az AQS-összekötőben a Trigger.Once használatakor.
2020. augusztus 11.
- [SPARK-28676][CORE] A ContextCleaner túlzott naplózásának elkerülése
2020. augusztus 3.
- Most már használhatja az LDA transzformációs függvényt egy átengedhető fürtön.
- Az operációs rendszer biztonsági frissítései.
2020. július 7.
- Frissített Java-verzió az 1.8.0_232-es verzióról 1.8.0_252-re.
2020. április 21.
- [SPARK-31312][SQL] Gyorsítótárosztálypéldány a HiveFunctionWrapper UDF-példányához
2020. április 7.
2020. március 10.
- Az optimalizált automatikus skálázás mostantól alapértelmezés szerint a biztonsági csomag interaktív fürtöinél használatos.
- A Databricks Runtime-ban található Snowflake-összekötő (
spark-snowflake_2.11
) a 2.5.9-es verzióra frissül.snowflake-jdbc
verziószáma a 3.12.0-s verzióra frissül.
Databricks Runtime 5.5 LTS (EoS)
Lásd: Databricks Runtime 5.5 LTS (EoS) és Databricks Runtime 5.5 Extended Support (EoS).
2021. december 8.
- Az operációs rendszer biztonsági frissítései.
2021. szeptember 22.
- Az operációs rendszer biztonsági frissítései.
2021. augusztus 25.
- Az 5.5 ML kiterjesztett támogatási kiadásban a korábban frissített Python-csomagokat visszaminősítette, hogy jobb paritást biztosítson az 5,5 ML LTS-sel (most elavult). A két verzió közötti frissített különbségekről lásd: [_]/release-notes/runtime/5.5xml.md).
2021. június 15.
- [SPARK-35576][SQL] A bizalmas adatok újrakonfigurálása a Beállítás parancs eredményében
2021. június 7.
- Adjon hozzá egy új, vesszővel tagolt sztringkonfigurációt
spark.sql.maven.additionalRemoteRepositories
az opcionális további távoli maven-tükörhez. Az érték alapértelmezés szerint a következő.https://maven-central.storage-download.googleapis.com/maven2/
- Adjon hozzá egy új, vesszővel tagolt sztringkonfigurációt
2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
2021. március 9., kedd
- Port HADOOP-17215 az Azure Blob Fájlrendszer illesztőprogramjához (feltételes felülírás támogatása).
2021. február 24.
- Új konfigurációt
spark.databricks.hive.metastore.init.reloadFunctions.enabled
vezetett be. Ez a konfiguráció szabályozza a Beépített Hive-inicializálást. Ha igaz értékre van állítva, az Azure Databricks újra betölti az összes függvényt az összes olyan adatbázisból, amelybe a felhasználók be vannak állítvaFunctionRegistry
. Ez az alapértelmezett viselkedés a Hive Metastore-ban. Ha hamis értékre van állítva, az Azure Databricks letiltja ezt a folyamatot az optimalizáláshoz.
- Új konfigurációt
2021. január 12
- Az operációs rendszer biztonsági frissítései.
- A(z) [HADOOP-17130] javítása.
2020. december 8., kedd
- [SPARK-27421][SQL] A java.lang.String int oszlop és értékosztály szűrőjének javítása partícióoszlop metszésekor
- Az operációs rendszer biztonsági frissítései.
2020. december 1., kedd
- [SPARK-33260][SQL] A SortExec helytelen eredményeinek javítása, ha a sortOrder stream
- [SPARK-32635][SQL] Összecsukható propagálás javítása
2020. október 29.
- Frissített Java-verzió az 1.8.0_252-es verzióról 1.8.0_265-re.
- Az ABFS és a WASB zárolásának javítása a UserGroupInformation.getCurrentUser() vonatkozásában
- Javítsa ki az Avro-olvasó végtelen hurokhibáját a MAGIC bájtok olvasása közben.
2020. október 13.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-32999][SQL] [2.4] Használja az Utils.getSimpleName parancsot, hogy elkerülje a hibásan formázott osztálynevet a TreeNode-ban
2020. szeptember 24.
- Az operációs rendszer biztonsági frissítései.
2020. szeptember 8., kedd
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
maxbinlength
Ez a paraméter a BinaryType oszlopok oszlophosszának szabályozására szolgál, és lefordítva.VARBINARY(maxbinlength)
A beállítás a következővel.option("maxbinlength", n)
állítható be: 0 < n <= 8000.
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
2020. augusztus 18.
- [SPARK-32431][SQL] Ismétlődő beágyazott oszlopok ellenőrzése beépített adatforrásokból származó olvasásban
- Kijavítottunk egy versenyfeltételt az AQS-összekötőben a Trigger.Once használatakor.
2020. augusztus 11.
- [SPARK-28676][CORE] A ContextCleaner túlzott naplózásának elkerülése
2020. augusztus 3.
- Operációs rendszer biztonsági frissítései
2020. július 7.
- Frissített Java-verzió az 1.8.0_232-es verzióról 1.8.0_252-re.
2020. április 21.
- [SPARK-31312][SQL] Gyorsítótárosztálypéldány a HiveFunctionWrapper UDF-példányához
2020. április 7.
2020. március 25.
- A Databricks Runtime-ban található Snowflake-összekötő (
spark-snowflake_2.11
) a 2.5.9-es verzióra frissül.snowflake-jdbc
verziószáma a 3.12.0-s verzióra frissül.
- A Databricks Runtime-ban található Snowflake-összekötő (
2020. március 10.
- A feladat kimenetére, például az stdout számára kibocsátott naplókimenetre 20 MB-os méretkorlát vonatkozik. Ha a teljes kimenet nagyobb méretű, a futtatás megszakad, és sikertelenként lesz megjelölve. Ennek a korlátnak a elkerülése érdekében megakadályozhatja, hogy az stdout visszakerüljön az illesztőprogramból a
spark.databricks.driver.disableScalaOutput
Spark konfigurációjánaktrue
beállításával. Alapértelmezés szerint a jelző értéke .false
A jelölő vezérli a Scala JAR-feladatok és Scala-jegyzetfüzetek cellakimenetét. Ha a jelző engedélyezve van, a Spark nem ad vissza feladatvégrehajtási eredményeket az ügyfélnek. A jelölő nincs hatással a fürt naplófájljaiban írt adatokra. Ennek a jelzőnek a beállítása csak a JAR-feladatokhoz használt automatizált fürtök esetében ajánlott, mert az letiltja a jegyzetfüzetek eredményeit.
- A feladat kimenetére, például az stdout számára kibocsátott naplókimenetre 20 MB-os méretkorlát vonatkozik. Ha a teljes kimenet nagyobb méretű, a futtatás megszakad, és sikertelenként lesz megjelölve. Ennek a korlátnak a elkerülése érdekében megakadályozhatja, hogy az stdout visszakerüljön az illesztőprogramból a
2020. február 18.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 kivételt kell eredményeznie
- Az ADLS Gen2 hitelesítő adatainak átengedése teljesítménycsökkenést okoz a szál helyi kezelésének helytelen kezelése miatt, ha az ADLS-ügyfél előkezelése engedélyezve van. Ez a kiadás letiltja az ADLS Gen2 előkezelését, ha a hitelesítő adatok átengedése engedélyezve van, amíg nincs megfelelő javítás.
2020. január 28.
- [SPARK-30447][SQL] Állandó propagálás nullabilitási problémája.
2020. január 14.
- Frissített Java-verzió az 1.8.0_222-ről az 1.8.0_232-es verzióra.
2019. november 19.
- [SPARK-29743] Az [SQL] mintának igaz értékre kell állítania a needCopyResult értéket, ha a gyermek needCopyResult értéke igaz
- Az R-verzió nem szándékosan lett frissítve a 3.6.1-es verzióra a 3.6.0-ról. Visszaminősítettük a 3.6.0-ra.
2019. november 5.
- Frissített Java-verzió az 1.8.0_212-ről 1.8.0_222-re.
2019. október 23.
- [SPARK-29244][CORE] A szabad oldal újbóli felszabadításának megakadályozása a BytesToBytesMap-ban
2019. október 8., kedd
- Kiszolgálóoldali módosítások, amelyek lehetővé teszik a Simba Apache Spark ODBC-illesztő újracsatlakozását és folytatását a kapcsolati hiba után az eredmények lekérése során (a Simba Apache Spark ODBC-illesztőprogram 2.6.10-es verziójára van szükség).
- Kijavítottunk egy hibát, amely hatással volt a parancs tábla ACL-kompatibilis fürtökkel való használatára
Optimize
. - Kijavítottunk egy hibát, amely
pyspark.ml
miatt a kódtárak meghiúsultak, mert a Scala UDF tiltott hibát észlelt a tábla ACL-jén és a hitelesítő adatok átengedésében engedélyezett fürtökön. - Engedélyezett SerDe és SerDeUtil metódusok hitelesítő adatok átengedéséhez.
- Kijavítottuk a NullPointerException hibát a WASB-ügyfél hibakódjának ellenőrzésekor.
2019. szeptember 24.
- Jobb stabilitása Parquet író.
- Kijavítottuk azt a problémát, amely miatt a Thrift-lekérdezés a végrehajtás megkezdése előtt megszakadt, előfordulhat, hogy a STARTED állapotban elakadt.
2019. szeptember 10.
- Szálbiztos iterátor hozzáadása a BytesToBytesMap-hoz
- [SPARK-27992][SPARK-28881]A Python csatlakozásának engedélyezése kapcsolati szállal a hibák propagálásához
- Kijavítottunk egy hibát, amely bizonyos globális összesítési lekérdezéseket érintett.
- Továbbfejlesztett hitelesítő adatok újbóli használata.
- [SPARK-27330][SS] támogatási feladat megszakítása a foreach-íróban
- [SPARK-28642]Hitelesítő adatok elrejtése a CREATE TABLE megjelenítése alkalmazásban
- [SPARK-28699][SQL] A ShuffleExchangeExec radix rendezési funkciójának letiltása újraparticionálási esetben
2019. augusztus 27.
- [SPARK-20906][SQL] Felhasználó által megadott séma engedélyezése az API-to_avro sémaregisztrációs adatbázissal
- [SPARK-27838][SQL] A támogatási felhasználó nem null értékű avro sémát adott meg null értékű katalizátorsémához null rekord nélkül
- Javulás a Delta Lake időutazásán
- Kijavítottunk egy bizonyos
transform
kifejezést érintő hibát - Támogatja a szórási változókat, ha a folyamatelkülönítés engedélyezve van
2019. augusztus 13.
- A deltastreamelési forrásnak ellenőriznie kell egy tábla legújabb protokollját
- [SPARK-28260]ZÁRT állapot hozzáadása a ExecutionState-hez
- [SPARK-28489][SS] Kijavítottuk azt a hibát, amely miatt a KafkaOffsetRangeCalculator.getRanges elvetheti az eltolódásokat
2019. július 30.
- [SPARK-28015][SQL] Ellenőrizze, hogy a stringToDate() az yyyy és az y-[m]m formátumok teljes bemenetét használja-e
- [SPARK-28308][CORE] A CalendarInterval sub-second részt az elemzés előtt ki kell párnázni
- [SPARK-27485]A EnsureRequirements.reordernek elegánsan kell kezelnie az ismétlődő kifejezéseket
- [SPARK-28355][CORE] [PYTHON] A Spark conf használata olyan küszöbértékhez, amelyen az UDF a szórással tömörítve van
A Databricks Light 2.4 kiterjesztett támogatása
Lásd: Databricks Light 2.4 (EoS) és Databricks Light 2.4 Kiterjesztett támogatás (EoS).
Databricks Runtime 7.4 (EoS)
Lásd: Databricks Runtime 7.4 (EoS).
2021. április 30.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-35227][BUILD] Spark-csomagok feloldójának frissítése a SparkSubmitben
- [SPARK-34245][CORE] Győződjön meg arról, hogy a főkiszolgáló eltávolítja azokat a végrehajtókat, amelyek nem küldték el a kész állapotot
- [SPARK-35045][SQL] Belső beállítás hozzáadása a bemeneti puffer univocitásban való szabályozásához és a CSV bemeneti puffer méretének konfigurálásához
2021. március 24.
- [SPARK-34768][SQL] Az univocity alapértelmezett bemeneti pufferméretének tiszteletben tartása
- [SPARK-34534] BlockIds-sorrend javítása a FetchShuffleBlocks használata blokkok lekéréséhez
2021. március 9., kedd
- Az Azure Data Lake Storage Gen2 frissített Azure Blob fájlrendszer-illesztőprogramja alapértelmezés szerint engedélyezve van. Több stabilitási fejlesztést is eredményez.
- [ES-67926] [Felhasználói felület] A Spark DAG-vizualizáció href hivatkozásának javítása
- [ES-65064] A következő kimeneti sémájának visszaállítása:
SHOW DATABASES
- [SC-70522] [SQL] A helyes dinamikus metszési buildkulcs használata, ha a tartományillesztési tipp jelen van
- [SC-35081] Delta-táblafájlok elavultságának letiltása a lemezgyorsítótárban
- [SC-70640] Az NPE javítása, ha az EventGridClient-válasz nem tartalmaz entitást
- [SC-70220] [SQL] Ha az AOS engedélyezve van, ne hozzon létre shuffle partíciószám-tanácsot
2021. február 24.
- Frissítette a Spark BigQuery-összekötőt a 0.18-ra, amely különböző hibajavításokat és a Arrow és Avro iterátorok támogatását mutatja be.
- Kijavítottunk egy hibát, amely miatt a Spark helytelen eredményeket adott vissza, ha a Parquet-fájl tizedes pontossága és mérete eltér a Spark-sémától.
- Kijavítottuk a térbeli adattípusokat tartalmazó Microsoft SQL Server-táblák olvasási hibáit a Spark SQL geometriai és földrajzi JDBC-típusainak támogatásával.
- Új konfigurációt
spark.databricks.hive.metastore.init.reloadFunctions.enabled
vezetett be. Ez a konfiguráció szabályozza a Beépített Hive-inicializálást. Ha igaz értékre van állítva, az Azure Databricks újra betölti az összes függvényt az összes olyan adatbázisból, amelybe a felhasználók be vannak állítvaFunctionRegistry
. Ez az alapértelmezett viselkedés a Hive Metastore-ban. Ha hamis értékre van állítva, az Azure Databricks letiltja ezt a folyamatot az optimalizáláshoz. - [SPARK-34212] Kijavítottuk a tizedesadatok Parquet-fájlokból való beolvasásával kapcsolatos problémákat.
- [SPARK-33579][Felhasználói felület] A végrehajtó üres lapjának javítása proxy mögött.
- [SPARK-20044][Felhasználói felület] Támogatja a Spark felhasználói felületét az előtér-fordított proxy mögött egy elérésiút-előtag használatával.
- [SPARK-33277][PYSPARK] [SQL] A Tevékenység befejezése után a ContextAwareIterator használatával leállítja a használatot.
2021. február 4.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
SELECT * FROM table LIMIT nrows
. A regressziót az ODBC/JDBC-n keresztül lekérdezéseket futtató felhasználók tapasztalták, és engedélyezve volt a nyíl szerializálása. - Kijavítottunk egy regressziót, amely miatt a DBFS FUSE nem indult el, amikor a fürtkörnyezet változókonfigurációi érvénytelen bash szintaxist tartalmaznak.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
2021. január 20.
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
df.join(df.select($"col" as "new_col"), cond)
- A származtatott DataFrame kizár néhány oszlopot a kiválasztás, a groupBy vagy az ablak használatával.
- Az illesztési feltétel vagy a következő átalakítás az összekapcsolt adatkeret után a nem gyakori oszlopokra vonatkozik. Például:
df.join(df.drop("a"), df("a") === 1)
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
2021. január 12
- Az operációs rendszer biztonsági frissítései.
- [SPARK-33593][SQL] A vektorolvasó helytelen adatokat kapott bináris partícióértékkel
- [SPARK-33677][SQL] A LikeSimplification szabály kihagyása, ha a minta tartalmaz escapeChar értéket
- [SPARK-33071][SPARK-33536] [SQL] A DetectAmbiguousSelfJoin megszakításának elkerülése érdekében ne módosítsa a LogicalPlan dataset_id az illesztés() során
2020. december 8., kedd
- [SPARK-33587][CORE] A végrehajtó megölése beágyazott végzetes hibákon
- [SPARK-27421][SQL] A java.lang.String int oszlop és értékosztály szűrőjének javítása partícióoszlop metszésekor
- [SPARK-33316][SQL] A támogatási felhasználó null értékű Avro-sémát adott meg a nem null értékű katalizátorsémához az Avro írásában
- Az operációs rendszer biztonsági frissítései.
2020. december 1., kedd
- [SPARK-33404][SQL] [3.0] Helytelen eredmények javítása a kifejezésben
date_trunc
- [SPARK-33339][PYTHON] A Pyspark-alkalmazás nem kivételhiba miatt lefagy
- [SPARK-33183][SQL] [GYORSJAVÍTÁS] Az optimalizálási szabály megszüntetésesorok javítása és egy fizikai szabály hozzáadása a redundáns rendezések eltávolításához
- [SPARK-33371][PYTHON] [3.0] A Python 3.9 setup.py és tesztjeinek frissítése
- [SPARK-33391][SQL] element_at a CreateArray nem tart tiszteletben egy alapú indexet.
- [SPARK-33306][SQL] Időzónára van szükség a dátum sztringre történő leadásakor
- [SPARK-33260][SQL] A SortExec helytelen eredményeinek javítása, ha a sortOrder stream
- [SPARK-33272][SQL] a QueryPlan.transformUpWithNewOutput attribútumleképezésének metszete
- [SPARK-33404][SQL] [3.0] Helytelen eredmények javítása a kifejezésben
Databricks Runtime 7.2 (EoS)
Lásd: Databricks Runtime 7.2 (EoS).
2021. február 4.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
SELECT * FROM table LIMIT nrows
. A regressziót az ODBC/JDBC-n keresztül lekérdezéseket futtató felhasználók tapasztalták, és engedélyezve volt a nyíl szerializálása. - Kijavítottunk egy regressziót, amely miatt a DBFS FUSE nem indult el, amikor a fürtkörnyezet változókonfigurációi érvénytelen bash szintaxist tartalmaznak.
- Kijavítottunk egy regressziót, amely megakadályozza egy olyan lekérdezés növekményes végrehajtását, amely globális korlátot állít be, például
2021. január 20.
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
df.join(df.select($"col" as "new_col"), cond)
- A származtatott DataFrame kizár néhány oszlopot a kiválasztás, a groupBy vagy az ablak használatával.
- Az illesztési feltétel vagy a következő átalakítás az összekapcsolt adatkeret után a nem gyakori oszlopokra vonatkozik. Például:
df.join(df.drop("a"), df("a") === 1)
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
2021. január 12
- Az operációs rendszer biztonsági frissítései.
- [SPARK-33593][SQL] A vektorolvasó helytelen adatokat kapott bináris partícióértékkel
- [SPARK-33677][SQL] A LikeSimplification szabály kihagyása, ha a minta tartalmaz escapeChar értéket
- [SPARK-33071][SPARK-33536] [SQL] A DetectAmbiguousSelfJoin megszakításának elkerülése érdekében ne módosítsa a LogicalPlan dataset_id az illesztés() során
2020. december 8., kedd
- [SPARK-27421][SQL] A java.lang.String int oszlop és értékosztály szűrőjének javítása partícióoszlop metszésekor
- [SPARK-33404][SQL] Helytelen találatok javítása a kifejezésben
date_trunc
- [SPARK-33339][PYTHON] A Pyspark-alkalmazás nem kivételhiba miatt lefagy
- [SPARK-33183][SQL] Az optimalizálási szabály megszüntetésesorok javítása és egy fizikai szabály hozzáadása a redundáns rendezések eltávolításához
- [SPARK-33391][SQL] element_at a CreateArray nem tart tiszteletben egy alapú indexet.
- Az operációs rendszer biztonsági frissítései.
2020. december 1., kedd
- [SPARK-33306][SQL] Időzónára van szükség a dátum sztringre történő leadásakor
- [SPARK-33260][SQL] A SortExec helytelen eredményeinek javítása, ha a sortOrder stream
2020. november 3.
- Frissített Java-verzió az 1.8.0_252-es verzióról 1.8.0_265-re.
- Az ABFS és a WASB zárolásának javítása a UserGroupInformation.getCurrentUser() vonatkozásában
- Javítsa ki az Avro-olvasó végtelen hurokhibáját a MAGIC bájtok olvasása közben.
2020. október 13.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-32999][SQL] A Utils.getSimpleName használatával elkerülheti a hibásan formázott osztály nevét a TreeNode-ban
- Kijavítottuk az érvénytelen XML-karaktereket tartalmazó listakönyvtárakat a FUSE-csatlakoztatásban
- A FUSE-csatlakoztatás már nem használja a ListMultipartUploads szolgáltatást
2020. szeptember 29.
- [SPARK-28863][SQL] [WARMFIX] A Mároptimizált verzió bevezetése a V1FallbackWriters újraanalízisének megakadályozása érdekében
- [SPARK-32635][SQL] Összecsukható propagálás javítása
- Új konfiguráció
spark.shuffle.io.decoder.consolidateThreshold
hozzáadása . Állítsa be a konfigurációs értéket úgy, hogyLong.MAX_VALUE
kihagyja a netty FrameBuffers összesítését, ami megakadályozzajava.lang.IndexOutOfBoundsException
a sarokeseteket.
2020. szeptember 24.
- [SPARK-32764][SQL] A -0.0 értéknek 0,0-nak kell lennie
- [SPARK-32753][SQL] Csak címkék másolása a csomópontra címkék nélkül a tervek átalakításakor
- [SPARK-32659][SQL] A beszúrt dinamikus partíciók nem atomi típusú metszésével kapcsolatos adatprobléma megoldása
- Az operációs rendszer biztonsági frissítései.
2020. szeptember 8., kedd
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
maxbinlength
Ez a paraméter a BinaryType oszlopok oszlophosszának szabályozására szolgál, és lefordítva.VARBINARY(maxbinlength)
A beállítás a következővel.option("maxbinlength", n)
állítható be: 0 < n <= 8000.
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
Databricks Runtime 7.1 (EoS)
Lásd: Databricks Runtime 7.1 (EoS).
2021. február 4.
- Kijavítottunk egy regressziót, amely miatt a DBFS FUSE nem indult el, amikor a fürtkörnyezet változókonfigurációi érvénytelen bash szintaxist tartalmaznak.
2021. január 20.
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
df.join(df.select($"col" as "new_col"), cond)
- A származtatott DataFrame kizár néhány oszlopot a kiválasztás, a groupBy vagy az ablak használatával.
- Az illesztési feltétel vagy a következő átalakítás az összekapcsolt adatkeret után a nem gyakori oszlopokra vonatkozik. Például:
df.join(df.drop("a"), df("a") === 1)
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
2021. január 12
- Az operációs rendszer biztonsági frissítései.
- [SPARK-33593][SQL] A vektorolvasó helytelen adatokat kapott bináris partícióértékkel
- [SPARK-33677][SQL] A LikeSimplification szabály kihagyása, ha a minta tartalmaz escapeChar értéket
- [SPARK-33071][SPARK-33536] [SQL] A DetectAmbiguousSelfJoin megszakításának elkerülése érdekében ne módosítsa a LogicalPlan dataset_id az illesztés() során
2020. december 8., kedd
- [SPARK-27421][SQL] A java.lang.String int oszlop és értékosztály szűrőjének javítása partícióoszlop metszésekor
- A Databricks Connect használatával indított Spark-feladatok határozatlan ideig lefagyhatnak a végrehajtói verem nyomkövetésével
Executor$TaskRunner.$anonfun$copySessionState
- Az operációs rendszer biztonsági frissítései.
2020. december 1., kedd
- [SPARK-33404][SQL] [3.0] Helytelen eredmények javítása a kifejezésben
date_trunc
- [SPARK-33339][PYTHON] A Pyspark-alkalmazás nem kivételhiba miatt lefagy
- [SPARK-33183][SQL] [GYORSJAVÍTÁS] Az optimalizálási szabály megszüntetésesorok javítása és egy fizikai szabály hozzáadása a redundáns rendezések eltávolításához
- [SPARK-33371][PYTHON] [3.0] A Python 3.9 setup.py és tesztjeinek frissítése
- [SPARK-33391][SQL] element_at a CreateArray nem tart tiszteletben egy alapú indexet.
- [SPARK-33306][SQL] Időzónára van szükség a dátum sztringre történő leadásakor
- [SPARK-33404][SQL] [3.0] Helytelen eredmények javítása a kifejezésben
2020. november 3.
- Frissített Java-verzió az 1.8.0_252-es verzióról 1.8.0_265-re.
- Az ABFS és a WASB zárolásának javítása a UserGroupInformation.getCurrentUser() vonatkozásában
- Javítsa ki az Avro-olvasó végtelen hurokhibáját a MAGIC bájtok olvasása közben.
2020. október 13.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-32999][SQL] A Utils.getSimpleName használatával elkerülheti a hibásan formázott osztály nevét a TreeNode-ban
- Kijavítottuk az érvénytelen XML-karaktereket tartalmazó listakönyvtárakat a FUSE-csatlakoztatásban
- A FUSE-csatlakoztatás már nem használja a ListMultipartUploads szolgáltatást
2020. szeptember 29.
- [SPARK-28863][SQL] [WARMFIX] A Mároptimizált verzió bevezetése a V1FallbackWriters újraanalízisének megakadályozása érdekében
- [SPARK-32635][SQL] Összecsukható propagálás javítása
- Új konfiguráció
spark.shuffle.io.decoder.consolidateThreshold
hozzáadása . Állítsa be a konfigurációs értéket úgy, hogyLong.MAX_VALUE
kihagyja a netty FrameBuffers összesítését, ami megakadályozzajava.lang.IndexOutOfBoundsException
a sarokeseteket.
2020. szeptember 24.
- [SPARK-32764][SQL] A -0.0 értéknek 0,0-nak kell lennie
- [SPARK-32753][SQL] Csak címkék másolása a csomópontra címkék nélkül a tervek átalakításakor
- [SPARK-32659][SQL] A beszúrt dinamikus partíciók nem atomi típusú metszésével kapcsolatos adatprobléma megoldása
- Az operációs rendszer biztonsági frissítései.
2020. szeptember 8., kedd
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
maxbinlength
Ez a paraméter a BinaryType oszlopok oszlophosszának szabályozására szolgál, és lefordítva.VARBINARY(maxbinlength)
A beállítás a következővel.option("maxbinlength", n)
állítható be: 0 < n <= 8000.
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
2020. augusztus 25.
- [SPARK-32159][SQL] A két és a
Aggregator[Array[_], _, _]
UnresolvedMapObjects
- [SPARK-32559][SQL] Kijavítottuk a vágási logikát,
UTF8String.toInt/toLong
amely nem megfelelően kezelte az ASCII-karaktereket - [SPARK-32543][R] Használat eltávolítása
arrow::as_tibble
a SparkR-ben - [SPARK-32091][CORE] Időtúllépési hiba figyelmen kívül hagyása az elveszett végrehajtó blokkainak eltávolításakor
- Kijavítottunk egy hibát, amely az Azure Synapse-összekötőt érintette MSI-hitelesítő adatokkal
- Kijavítottuk a nem egyértelmű attribútumfeloldást az önegyesítés során
- [SPARK-32159][SQL] A két és a
2020. augusztus 18.
- [SPARK-32594][SQL] A Hive-táblákba beszúrt dátumok szerializálásának javítása
- [SPARK-32237][SQL] Tipp feloldása a CTE-ben
- [SPARK-32431][SQL] Ismétlődő beágyazott oszlopok ellenőrzése beépített adatforrásokból származó olvasásban
- [SPARK-32467][Felhasználói felület] Az URL-cím kétszeri kódolásának elkerülése https-átirányításon
- Kijavítottunk egy versenyfeltételt az AQS-összekötőben a Trigger.Once használatakor.
2020. augusztus 11.
- [SPARK-32280][SPARK-32372][SQL] A ResolveReferences.dedupRight csak az ütközési terv elődcsomópontjaihoz tartozó attribútumokat írja át
- [SPARK-32234][SQL] A Spark SQL-parancsok sikertelenek az ORC-táblák kiválasztásakor
2020. augusztus 3.
- Most már használhatja az LDA transzformációs függvényt egy átengedhető fürtön.
Databricks Runtime 7.0 (EoS)
Lásd: Databricks Runtime 7.0 (EoS).
2021. február 4.
- Kijavítottunk egy regressziót, amely miatt a DBFS FUSE nem indult el, amikor a fürtkörnyezet változókonfigurációi érvénytelen bash szintaxist tartalmaznak.
2021. január 20.
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
df.join(df.select($"col" as "new_col"), cond)
- A származtatott DataFrame kizár néhány oszlopot a kiválasztás, a groupBy vagy az ablak használatával.
- Az illesztési feltétel vagy a következő átalakítás az összekapcsolt adatkeret után a nem gyakori oszlopokra vonatkozik. Például:
df.join(df.drop("a"), df("a") === 1)
- Ez a két DataFrame közös oszlopokkal rendelkezik, de az önillesztés kimenete nem rendelkezik közös oszlopokkal. Például:
- Kijavítottunk egy regressziót a 2021. január 12-i karbantartási kiadásban, amely helytelen AnalysisException hibát okozhat, és azt mondja, hogy az oszlop nem egyértelmű egy öncsatlakozásban. Ez a regresszió akkor fordul elő, ha egy felhasználó egy DataFrame-et a származtatott DataFrame-jével (úgynevezett öncsatlakozással) csatlakoztat a következő feltételekkel:
2021. január 12
- Az operációs rendszer biztonsági frissítései.
- [SPARK-33593][SQL] A vektorolvasó helytelen adatokat kapott bináris partícióértékkel
- [SPARK-33677][SQL] A LikeSimplification szabály kihagyása, ha a minta tartalmaz escapeChar értéket
- [SPARK-33071][SPARK-33536] [SQL] A DetectAmbiguousSelfJoin megszakításának elkerülése érdekében ne módosítsa a LogicalPlan dataset_id az illesztés() során
2020. december 8., kedd
- [SPARK-27421][SQL] A java.lang.String int oszlop és értékosztály szűrőjének javítása partícióoszlop metszésekor
- [SPARK-33404][SQL] Helytelen találatok javítása a kifejezésben
date_trunc
- [SPARK-33339][PYTHON] A Pyspark-alkalmazás nem kivételhiba miatt lefagy
- [SPARK-33183][SQL] Az optimalizálási szabály megszüntetésesorok javítása és egy fizikai szabály hozzáadása a redundáns rendezések eltávolításához
- [SPARK-33391][SQL] element_at a CreateArray nem tart tiszteletben egy alapú indexet.
- Az operációs rendszer biztonsági frissítései.
2020. december 1., kedd
- [SPARK-33306][SQL] Időzónára van szükség a dátum sztringre történő leadásakor
2020. november 3.
- Frissített Java-verzió az 1.8.0_252-es verzióról 1.8.0_265-re.
- Az ABFS és a WASB zárolásának javítása a UserGroupInformation.getCurrentUser() vonatkozásában
- Javítsa ki az Avro-olvasó végtelen hurokhibáját a MAGIC bájtok olvasása közben.
2020. október 13.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-32999][SQL] A Utils.getSimpleName használatával elkerülheti a hibásan formázott osztály nevét a TreeNode-ban
- Kijavítottuk az érvénytelen XML-karaktereket tartalmazó listakönyvtárakat a FUSE-csatlakoztatásban
- A FUSE-csatlakoztatás már nem használja a ListMultipartUploads szolgáltatást
2020. szeptember 29.
- [SPARK-28863][SQL] [WARMFIX] A Mároptimizált verzió bevezetése a V1FallbackWriters újraanalízisének megakadályozása érdekében
- [SPARK-32635][SQL] Összecsukható propagálás javítása
- Új konfiguráció
spark.shuffle.io.decoder.consolidateThreshold
hozzáadása . Állítsa be a konfigurációs értéket úgy, hogyLong.MAX_VALUE
kihagyja a netty FrameBuffers összesítését, ami megakadályozzajava.lang.IndexOutOfBoundsException
a sarokeseteket.
2020. szeptember 24.
- [SPARK-32764][SQL] A -0.0 értéknek 0,0-nak kell lennie
- [SPARK-32753][SQL] Csak címkék másolása a csomópontra címkék nélkül a tervek átalakításakor
- [SPARK-32659][SQL] A beszúrt dinamikus partíciók nem atomi típusú metszésével kapcsolatos adatprobléma megoldása
- Az operációs rendszer biztonsági frissítései.
2020. szeptember 8., kedd
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
maxbinlength
Ez a paraméter a BinaryType oszlopok oszlophosszának szabályozására szolgál, és lefordítva.VARBINARY(maxbinlength)
A beállítás a következővel.option("maxbinlength", n)
állítható be: 0 < n <= 8000.
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
2020. augusztus 25.
- [SPARK-32159][SQL] A két és a
Aggregator[Array[_], _, _]
UnresolvedMapObjects
- [SPARK-32559][SQL] Kijavítottuk a vágási logikát,
UTF8String.toInt/toLong
amely nem megfelelően kezelte az ASCII-karaktereket - [SPARK-32543][R] Használat eltávolítása
arrow::as_tibble
a SparkR-ben - [SPARK-32091][CORE] Időtúllépési hiba figyelmen kívül hagyása az elveszett végrehajtó blokkainak eltávolításakor
- Kijavítottunk egy hibát, amely az Azure Synapse-összekötőt érintette MSI-hitelesítő adatokkal
- Kijavítottuk a nem egyértelmű attribútumfeloldást az önegyesítés során
- [SPARK-32159][SQL] A két és a
2020. augusztus 18.
- [SPARK-32594][SQL] A Hive-táblákba beszúrt dátumok szerializálásának javítása
- [SPARK-32237][SQL] Tipp feloldása a CTE-ben
- [SPARK-32431][SQL] Ismétlődő beágyazott oszlopok ellenőrzése beépített adatforrásokból származó olvasásban
- [SPARK-32467][Felhasználói felület] Az URL-cím kétszeri kódolásának elkerülése https-átirányításon
- Kijavítottunk egy versenyfeltételt az AQS-összekötőben a Trigger.Once használatakor.
2020. augusztus 11.
- [SPARK-32280][SPARK-32372][SQL] A ResolveReferences.dedupRight csak az ütközési terv elődcsomópontjaihoz tartozó attribútumokat írja át
- [SPARK-32234][SQL] A Spark SQL-parancsok sikertelenek az ORC-táblák kiválasztásakor
- Most már használhatja az LDA transzformációs függvényt egy átengedhető fürtön.
Databricks Runtime 6.6 (EoS)
Lásd: Databricks Runtime 6.6 (EoS).
2020. december 1., kedd
- [SPARK-33260][SQL] A SortExec helytelen eredményeinek javítása, ha a sortOrder stream
- [SPARK-32635][SQL] Összecsukható propagálás javítása
2020. november 3.
- Frissített Java-verzió az 1.8.0_252-es verzióról 1.8.0_265-re.
- Az ABFS és a WASB zárolásának javítása a UserGroupInformation.getCurrentUser() vonatkozásában
- Javítsa ki az Avro-olvasó végtelen hurokhibáját a MAGIC bájtok olvasása közben.
2020. október 13.
- Az operációs rendszer biztonsági frissítései.
- [SPARK-32999][SQL] [2.4] Használja az Utils.getSimpleName parancsot, hogy elkerülje a hibásan formázott osztálynevet a TreeNode-ban
- Kijavítottuk az érvénytelen XML-karaktereket tartalmazó listakönyvtárakat a FUSE-csatlakoztatásban
- A FUSE-csatlakoztatás már nem használja a ListMultipartUploads szolgáltatást
2020. szeptember 24.
- Az operációs rendszer biztonsági frissítései.
2020. szeptember 8., kedd
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
maxbinlength
Ez a paraméter a BinaryType oszlopok oszlophosszának szabályozására szolgál, és lefordítva.VARBINARY(maxbinlength)
A beállítás a következővel.option("maxbinlength", n)
állítható be: 0 < n <= 8000. - Frissítse az Azure Storage SDK-t a 8.6.4-re, és engedélyezze a TCP életben tartását a WASB-illesztőprogram által létesített kapcsolatokon
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
2020. augusztus 25.
- Kijavítottuk a nem egyértelmű attribútumfeloldást az önegyesítés során
2020. augusztus 18.
- [SPARK-32431][SQL] Ismétlődő beágyazott oszlopok ellenőrzése beépített adatforrásokból származó olvasásban
- Kijavítottunk egy versenyfeltételt az AQS-összekötőben a Trigger.Once használatakor.
2020. augusztus 11.
- [SPARK-28676][CORE] A ContextCleaner túlzott naplózásának elkerülése
- [SPARK-31967][Felhasználói felület] Visszalépés a vis.js 4.21.0-ra a feladatok felhasználói felületének betöltési idejének regressziója javításához
2020. augusztus 3.
- Most már használhatja az LDA transzformációs függvényt egy átengedhető fürtön.
- Az operációs rendszer biztonsági frissítései.
Databricks Runtime 6.5 (EoS)
Lásd: Databricks Runtime 6.5 (EoS).
- 2020. szeptember 24.
- Kijavítottunk egy korábbi korlátozást, amely miatt a standard fürtre vonatkozó átengedés továbbra is korlátozta a fájlrendszer-implementáció felhasználó általi használatát. Mostantól a felhasználók korlátozás nélkül hozzáférhetnek a helyi fájlrendszerekhez.
- Az operációs rendszer biztonsági frissítései.
- 2020. szeptember 8.
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
maxbinlength
Ez a paraméter a BinaryType oszlopok oszlophosszának szabályozására szolgál, és lefordítva.VARBINARY(maxbinlength)
A beállítás a következővel.option("maxbinlength", n)
állítható be: 0 < n <= 8000. - Frissítse az Azure Storage SDK-t a 8.6.4-re, és engedélyezze a TCP életben tartását a WASB-illesztőprogram által létesített kapcsolatokon
- Létrehoztunk egy új paramétert az Azure Synapse Analyticshez.
- 2020. augusztus 25.
- Kijavítottuk a nem egyértelmű attribútumfeloldást az önegyesítés során
- 2020. augusztus 18.
- [SPARK-32431][SQL] Ismétlődő beágyazott oszlopok ellenőrzése beépített adatforrásokból származó olvasásban
- Kijavítottunk egy versenyfeltételt az AQS-összekötőben a Trigger.Once használatakor.
- 2020. augusztus 11.
- [SPARK-28676][CORE] A ContextCleaner túlzott naplózásának elkerülése
- 2020. augusztus 3.
- Most már használhatja az LDA transzformációs függvényt egy átengedhető fürtön.
- Az operációs rendszer biztonsági frissítései.
- 2020. július 7.
- Frissített Java-verzió az 1.8.0_242-es verzióról 1.8.0_252-re.
- 2020. április 21.
- [SPARK-31312][SQL] Gyorsítótárosztálypéldány a HiveFunctionWrapper UDF-példányához
Databricks Runtime 6.3 (EoS)
Lásd: Databricks Runtime 6.3 (EoS).
- 2020. július 7.
- Frissített Java-verzió az 1.8.0_232-es verzióról 1.8.0_252-re.
- 2020. április 21.
- [SPARK-31312][SQL] Gyorsítótárosztálypéldány a HiveFunctionWrapper UDF-példányához
- 2020. április 7.
- 2020. március 10.
- A Databricks Runtime-ban található Snowflake-összekötő (
spark-snowflake_2.11
) a 2.5.9-es verzióra frissül.snowflake-jdbc
verziószáma a 3.12.0-s verzióra frissül.
- A Databricks Runtime-ban található Snowflake-összekötő (
- 2020. február 18.
- Az ADLS Gen2 hitelesítő adatainak átengedése teljesítménycsökkenést okoz a szál helyi kezelésének helytelen kezelése miatt, ha az ADLS-ügyfél előkezelése engedélyezve van. Ez a kiadás letiltja az ADLS Gen2 előkezelését, ha a hitelesítő adatok átengedése engedélyezve van, amíg nincs megfelelő javítás.
- 2020. február 11.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 kivételt kell eredményeznie
- [SPARK-30447][SQL] Állandó propagálás nullbilitási problémája
- [SPARK-28152][SQL] Régi conf hozzáadása régi MsSqlServerDialect numerikus leképezéshez
- Engedélyezte a felülírás függvényt, hogy az MLModels kibővítse az MLWriter függvényt.
Databricks Runtime 6.2 (EoS)
Lásd: Databricks Runtime 6.2 (EoS).
- 2020. április 21.
- [SPARK-31312][SQL] Gyorsítótárosztálypéldány a HiveFunctionWrapper UDF-példányához
- 2020. április 7.
- 2020. március 25.
- A feladat kimenetére, például az stdout számára kibocsátott naplókimenetre 20 MB-os méretkorlát vonatkozik. Ha a teljes kimenet nagyobb méretű, a futtatás megszakad, és sikertelenként lesz megjelölve. Ennek a korlátnak a elkerülése érdekében megakadályozhatja, hogy az stdout visszakerüljön az illesztőprogramból a
spark.databricks.driver.disableScalaOutput
Spark konfigurációjánaktrue
beállításával. Alapértelmezés szerint a jelző értéke .false
A jelölő vezérli a Scala JAR-feladatok és Scala-jegyzetfüzetek cellakimenetét. Ha a jelző engedélyezve van, a Spark nem ad vissza feladatvégrehajtási eredményeket az ügyfélnek. A jelölő nincs hatással a fürt naplófájljaiban írt adatokra. Ennek a jelzőnek a beállítása csak a JAR-feladatokhoz használt automatizált fürtök esetében ajánlott, mert az letiltja a jegyzetfüzetek eredményeit.
- A feladat kimenetére, például az stdout számára kibocsátott naplókimenetre 20 MB-os méretkorlát vonatkozik. Ha a teljes kimenet nagyobb méretű, a futtatás megszakad, és sikertelenként lesz megjelölve. Ennek a korlátnak a elkerülése érdekében megakadályozhatja, hogy az stdout visszakerüljön az illesztőprogramból a
- 2020. március 10.
- A Databricks Runtime-ban található Snowflake-összekötő (
spark-snowflake_2.11
) a 2.5.9-es verzióra frissül.snowflake-jdbc
verziószáma a 3.12.0-s verzióra frissül.
- A Databricks Runtime-ban található Snowflake-összekötő (
- 2020. február 18.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 kivételt kell eredményeznie
- Az ADLS Gen2 hitelesítő adatainak átengedése teljesítménycsökkenést okoz a szál helyi kezelésének helytelen kezelése miatt, ha az ADLS-ügyfél előkezelése engedélyezve van. Ez a kiadás letiltja az ADLS Gen2 előkezelését, ha a hitelesítő adatok átengedése engedélyezve van, amíg nincs megfelelő javítás.
- 2020. január 28.
- Az engedélyezett gépi tanulási modellírók felülírási függvénye a hitelesítő adatok átengedéséhez engedélyezett fürtök esetében, így a modellmentés felülírási módot használhat a hitelesítő adatok átengedéses fürtökön.
- [SPARK-30447][SQL] Állandó propagálás nullabilitási problémája.
- [SPARK-28152][SQL] Adjon hozzá egy örökölt conf-t a régi MsSqlServerDialect numerikus leképezéshez.
- 2020. január 14.
- Frissített Java-verzió az 1.8.0_222-ről az 1.8.0_232-es verzióra.
- 2019. december 10.
- [SPARK-29904][SQL] Időbélyegek elemzése mikroszekundumos pontosságban JSON/CSV-adatforrások szerint.
Databricks Runtime 6.1 (EoS)
Lásd: Databricks Runtime 6.1 (EoS).
- 2020. április 7.
- 2020. március 25.
- A feladat kimenetére, például az stdout számára kibocsátott naplókimenetre 20 MB-os méretkorlát vonatkozik. Ha a teljes kimenet nagyobb méretű, a futtatás megszakad, és sikertelenként lesz megjelölve. Ennek a korlátnak a elkerülése érdekében megakadályozhatja, hogy az stdout visszakerüljön az illesztőprogramból a
spark.databricks.driver.disableScalaOutput
Spark konfigurációjánaktrue
beállításával. Alapértelmezés szerint a jelző értéke .false
A jelölő vezérli a Scala JAR-feladatok és Scala-jegyzetfüzetek cellakimenetét. Ha a jelző engedélyezve van, a Spark nem ad vissza feladatvégrehajtási eredményeket az ügyfélnek. A jelölő nincs hatással a fürt naplófájljaiban írt adatokra. Ennek a jelzőnek a beállítása csak a JAR-feladatokhoz használt automatizált fürtök esetében ajánlott, mert az letiltja a jegyzetfüzetek eredményeit.
- A feladat kimenetére, például az stdout számára kibocsátott naplókimenetre 20 MB-os méretkorlát vonatkozik. Ha a teljes kimenet nagyobb méretű, a futtatás megszakad, és sikertelenként lesz megjelölve. Ennek a korlátnak a elkerülése érdekében megakadályozhatja, hogy az stdout visszakerüljön az illesztőprogramból a
- 2020. március 10.
- A Databricks Runtime-ban található Snowflake-összekötő (
spark-snowflake_2.11
) a 2.5.9-es verzióra frissül.snowflake-jdbc
verziószáma a 3.12.0-s verzióra frissül.
- A Databricks Runtime-ban található Snowflake-összekötő (
- 2020. február 18.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 kivételt kell eredményeznie
- Az ADLS Gen2 hitelesítő adatainak átengedése teljesítménycsökkenést okoz a szál helyi kezelésének helytelen kezelése miatt, ha az ADLS-ügyfél előkezelése engedélyezve van. Ez a kiadás letiltja az ADLS Gen2 előkezelését, ha a hitelesítő adatok átengedése engedélyezve van, amíg nincs megfelelő javítás.
- 2020. január 28.
- [SPARK-30447][SQL] Állandó propagálás nullabilitási problémája.
- [SPARK-28152][SQL] Adjon hozzá egy örökölt conf-t a régi MsSqlServerDialect numerikus leképezéshez.
- 2020. január 14.
- Frissített Java-verzió az 1.8.0_222-ről az 1.8.0_232-es verzióra.
- 2019. november 7.
- [SPARK-29743]Az [SQL] mintának igaz értékre kell állítania a needCopyResult értéket, ha a gyermek needCopyResult értéke igaz.
- A Spark konfigurációs tulajdonságaiból és környezeti változóiból hivatkozott titkos kódok a Nyilvános előzetes verzióban. Lásd: Titkos kód használata Spark-konfigurációs tulajdonságban vagy környezeti változóban.
- 2019. november 5.
- Kijavítottunk egy hibát a DBFS FUSE-ban a csatlakozási pontok elérési útjának
//
kezeléséhez. - [SPARK-29081] A SzerializationUtils.clone meghívásainak lecserélése a tulajdonságokon gyorsabb implementációra
- [SPARK-29244][CORE] A szabad oldal újbóli felszabadításának megakadályozása a BytesToBytesMap-ban
- (6.1 ML) Az MKL 2019.4-es verziója véletlenül lett telepítve. Az Anaconda Distribution 2019.03-nak megfelelő MKL 2019.3-ra csökkentjük.
- Kijavítottunk egy hibát a DBFS FUSE-ban a csatlakozási pontok elérési útjának
Databricks Runtime 6.0 (EoS)
Lásd: Databricks Runtime 6.0 (EoS).
- 2020. március 25.
- A feladat kimenetére, például az stdout számára kibocsátott naplókimenetre 20 MB-os méretkorlát vonatkozik. Ha a teljes kimenet nagyobb méretű, a futtatás megszakad, és sikertelenként lesz megjelölve. Ennek a korlátnak a elkerülése érdekében megakadályozhatja, hogy az stdout visszakerüljön az illesztőprogramból a
spark.databricks.driver.disableScalaOutput
Spark konfigurációjánaktrue
beállításával. Alapértelmezés szerint a jelző értéke .false
A jelölő vezérli a Scala JAR-feladatok és Scala-jegyzetfüzetek cellakimenetét. Ha a jelző engedélyezve van, a Spark nem ad vissza feladatvégrehajtási eredményeket az ügyfélnek. A jelölő nincs hatással a fürt naplófájljaiban írt adatokra. Ennek a jelzőnek a beállítása csak a JAR-feladatokhoz használt automatizált fürtök esetében ajánlott, mert az letiltja a jegyzetfüzetek eredményeit.
- A feladat kimenetére, például az stdout számára kibocsátott naplókimenetre 20 MB-os méretkorlát vonatkozik. Ha a teljes kimenet nagyobb méretű, a futtatás megszakad, és sikertelenként lesz megjelölve. Ennek a korlátnak a elkerülése érdekében megakadályozhatja, hogy az stdout visszakerüljön az illesztőprogramból a
- 2020. február 18.
- Az ADLS Gen2 hitelesítő adatainak átengedése teljesítménycsökkenést okoz a szál helyi kezelésének helytelen kezelése miatt, ha az ADLS-ügyfél előkezelése engedélyezve van. Ez a kiadás letiltja az ADLS Gen2 előkezelését, ha a hitelesítő adatok átengedése engedélyezve van, amíg nincs megfelelő javítás.
- 2020. február 11.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 kivételt kell eredményeznie
- 2020. január 28.
- [SPARK-30447][SQL] Állandó propagálás nullabilitási problémája.
- [SPARK-28152][SQL] Adjon hozzá egy örökölt conf-t a régi MsSqlServerDialect numerikus leképezéshez.
- 2020. január 14.
- Frissített Java-verzió az 1.8.0_222-ről az 1.8.0_232-es verzióra.
- 2019. november 19.
- [SPARK-29743] Az [SQL] mintának igaz értékre kell állítania a needCopyResult értéket, ha a gyermek needCopyResult értéke igaz
- 2019. november 5.
dbutils.tensorboard.start()
Mostantól támogatja a TensorBoard 2.0-t (ha manuálisan van telepítve).- Kijavítottunk egy hibát a DBFS FUSE-ban a csatlakozási pontok elérési útjának
//
kezeléséhez. - [SPARK-29081]A SzerializationUtils.clone meghívásainak lecserélése a tulajdonságokon gyorsabb implementációra
- 2019. október 23.
- [SPARK-29244][CORE] A szabad oldal újbóli felszabadításának megakadályozása a BytesToBytesMap-ban
- 2019. október 8.
- Kiszolgálóoldali módosítások, amelyek lehetővé teszik a Simba Apache Spark ODBC-illesztő újracsatlakozását és folytatását a kapcsolati hiba után az eredmények lekérése során (a Simba Apache Spark ODBC-illesztőprogram 2.6.10-es verziójára van szükség).
- Kijavítottunk egy hibát, amely hatással volt a parancs tábla ACL-kompatibilis fürtökkel való használatára
Optimize
. - Kijavítottunk egy hibát, amely
pyspark.ml
miatt a kódtárak meghiúsultak, mert a Scala UDF tiltott hibát észlelt a tábla ACL-jén és a hitelesítő adatok átengedésében engedélyezett fürtökön. - Engedélyezett SerDe/SerDeUtil metódusok hitelesítő adatok átengedéséhez.
- Kijavítottuk a NullPointerException hibát a WASB-ügyfél hibakódjának ellenőrzésekor.
- Kijavítottuk azt a hibát, amely miatt a felhasználói hitelesítő adatok nem lettek továbbítva az általuk
dbutils.notebook.run()
létrehozott feladatokra.
Databricks Runtime 5.4 ML (EoS)
Lásd: Databricks Runtime 5.4 for ML (EoS).
- 2019. június 18.
- Az MLflow aktív futtatások jobb kezelése a Hyperopt-integrációban
- Továbbfejlesztett üzenetek a Hyperoptban
- Frissített csomag
Marchkdown
3.1-ről 3.1.1-re
Databricks Runtime 5.4 (EoS)
Lásd: Databricks Runtime 5.4 (EoS).
- 2019. november 19.
- [SPARK-29743] Az [SQL] mintának igaz értékre kell állítania a needCopyResult értéket, ha a gyermek needCopyResult értéke igaz
- 2019. október 8.
- Kiszolgálóoldali módosítások, amelyek lehetővé teszik, hogy a Simba Apache Spark ODBC-illesztő újracsatlakozhasson, és az eredmények lekérése során kapcsolathiba után folytassa a műveletet (a Simba Apache Spark ODBC-illesztőprogram 2.6.10-es verzióra való frissítését igényli).
- Kijavítottuk a NullPointerException hibát a WASB-ügyfél hibakódjának ellenőrzésekor.
- 2019. szeptember 10.
- Szálbiztos iterátor hozzáadása a BytesToBytesMap-hoz
- Kijavítottunk egy hibát, amely bizonyos globális összesítési lekérdezéseket érintett.
- [SPARK-27330][SS] támogatási feladat megszakítása a foreach-íróban
- [SPARK-28642]Hitelesítő adatok elrejtése a CREATE TABLE megjelenítése alkalmazásban
- [SPARK-28699][SQL] A ShuffleExchangeExec radix rendezési funkciójának letiltása újraparticionálási esetben
- [SPARK-28699][CORE] A határozatlan fázis megszakításához használt sarokeset javítása
- 2019. augusztus 27.
- Kijavítottunk egy bizonyos
transform
kifejezéseket érintő hibát
- Kijavítottunk egy bizonyos
- 2019. augusztus 13.
- A deltastreamelési forrásnak ellenőriznie kell egy tábla legújabb protokollját
- [SPARK-28489][SS] Kijavítottuk azt a hibát, amely miatt a KafkaOffsetRangeCalculator.getRanges elvetheti az eltolódásokat
- 2019. július 30.
- [SPARK-28015][SQL] Ellenőrizze, hogy a stringToDate() az yyyy és az y-[m]m formátumok teljes bemenetét használja-e
- [SPARK-28308][CORE] A CalendarInterval sub-second részt az elemzés előtt ki kell párnázni
- [SPARK-27485]A EnsureRequirements.reordernek elegánsan kell kezelnie az ismétlődő kifejezéseket
- 2019. július 2.
- Frissített snappy-java 1.1.7.1-ről 1.1.7.3-ra.
- 2019. június 18.
- Az MLflow aktív futtatások jobb kezelése az MLlib-integrációban
- Továbbfejlesztett Databricks Advisor-üzenet a lemez gyorsítótárazásával kapcsolatban
- Kijavítottunk egy hibát, amely a magasabb rendű függvények használatát érinti
- Kijavítottunk egy hibát, amely hatással van a Delta metaadat-lekérdezéseire
Databricks Runtime 5.3 (EoS)
Lásd: Databricks Runtime 5.3 (EoS).
- 2019. november 7.
- [SPARK-29743]Az [SQL] mintának igaz értékre kell állítania a needCopyResult értéket, ha a gyermek needCopyResult értéke igaz
- 2019. október 8.
- Kiszolgálóoldali módosítások, amelyek lehetővé teszik, hogy a Simba Apache Spark ODBC-illesztő újracsatlakozhasson, és az eredmények lekérése során kapcsolathiba után folytassa a műveletet (a Simba Apache Spark ODBC-illesztőprogram 2.6.10-es verzióra való frissítését igényli).
- Kijavítottuk a NullPointerException hibát a WASB-ügyfél hibakódjának ellenőrzésekor.
- 2019. szeptember 10.
- Szálbiztos iterátor hozzáadása a BytesToBytesMap-hoz
- Kijavítottunk egy hibát, amely bizonyos globális összesítési lekérdezéseket érintett.
- [SPARK-27330][SS] támogatási feladat megszakítása a foreach-íróban
- [SPARK-28642]Hitelesítő adatok elrejtése a CREATE TABLE megjelenítése alkalmazásban
- [SPARK-28699][SQL] A ShuffleExchangeExec radix rendezési funkciójának letiltása újraparticionálási esetben
- [SPARK-28699][CORE] A határozatlan fázis megszakításához használt sarokeset javítása
- 2019. augusztus 27.
- Kijavítottunk egy bizonyos
transform
kifejezéseket érintő hibát
- Kijavítottunk egy bizonyos
- 2019. augusztus 13.
- A deltastreamelési forrásnak ellenőriznie kell egy tábla legújabb protokollját
- [SPARK-28489][SS] Kijavítottuk azt a hibát, amely miatt a KafkaOffsetRangeCalculator.getRanges elvetheti az eltolódásokat
- 2019. július 30.
- [SPARK-28015][SQL] Ellenőrizze, hogy a stringToDate() az yyyy és az y-[m]m formátumok teljes bemenetét használja-e
- [SPARK-28308][CORE] A CalendarInterval sub-second részt az elemzés előtt ki kell párnázni
- [SPARK-27485]A EnsureRequirements.reordernek elegánsan kell kezelnie az ismétlődő kifejezéseket
- 2019. június 18.
- Továbbfejlesztett Databricks Advisor-üzenet a lemez gyorsítótárazásával kapcsolatban
- Kijavítottunk egy hibát, amely a magasabb rendű függvények használatát érinti
- Kijavítottunk egy hibát, amely hatással van a Delta metaadat-lekérdezéseire
- 2019. május 28.
- A Delta stabilitásának javítása
- Az IOExceptions tolerálása Delta LAST_CHECKPOINT fájl olvasásakor
- Helyreállítás hozzáadva a sikertelen kódtár-telepítéshez
- 2019. május 7.
- Port HADOOP-15778 (ABFS: Az ügyféloldali szabályozás javítása olvasáshoz) az Azure Data Lake Storage Gen2-összekötőre
- Port HADOOP-16040 (ABFS: Hibajavítás a tolerateOobAppends konfigurációjához) az Azure Data Lake Storage Gen2-összekötőhöz
- Kijavítottunk egy, a tábla ACL-eket érintő hibát
- Kijavítottunk egy versenyfeltételt a Delta-napló ellenőrzőösszegfájljának betöltésekor
- Kijavítottuk a Delta ütközésészlelési logikáját, hogy a "beszúrás + felülírás" nem azonosítható tiszta "hozzáfűzési" műveletként
- Győződjön meg arról, hogy a lemez gyorsítótárazása nincs letiltva, ha a tábla ACL-ek engedélyezve vannak
- [SPARK-27494] [SS] A null kulcsok/értékek nem működnek a Kafka 2-ben
- [SPARK-27446] [R] Meglévő spark conf használata, ha elérhető.
- [SPARK-27454] [SPARK-27454] [ML] [SQL] A Spark-rendszerkép-adatforrás meghiúsul, ha illegális képeket tapasztal
- [SPARK-27160] [SQL] Decimális típus javítása orc szűrők létrehozásakor
- [SPARK-27338] [CORE] Holtpont javítása a UnsafeExternalSorter és a TaskMemoryManager között
Databricks Runtime 5.2 (EoS)
Lásd: Databricks Runtime 5.2 (EoS).
- 2019. szeptember 10.
- Szálbiztos iterátor hozzáadása a BytesToBytesMap-hoz
- Kijavítottunk egy hibát, amely bizonyos globális összesítési lekérdezéseket érintett.
- [SPARK-27330][SS] támogatási feladat megszakítása a foreach-íróban
- [SPARK-28642]Hitelesítő adatok elrejtése a CREATE TABLE megjelenítése alkalmazásban
- [SPARK-28699][SQL] A ShuffleExchangeExec radix rendezési funkciójának letiltása újraparticionálási esetben
- [SPARK-28699][CORE] A határozatlan fázis megszakításához használt sarokeset javítása
- 2019. augusztus 27.
- Kijavítottunk egy bizonyos
transform
kifejezéseket érintő hibát
- Kijavítottunk egy bizonyos
- 2019. augusztus 13.
- A deltastreamelési forrásnak ellenőriznie kell egy tábla legújabb protokollját
- [SPARK-28489][SS] Kijavítottuk azt a hibát, amely miatt a KafkaOffsetRangeCalculator.getRanges elvetheti az eltolódásokat
- 2019. július 30.
- [SPARK-28015][SQL] Ellenőrizze, hogy a stringToDate() az yyyy és az y-[m]m formátumok teljes bemenetét használja-e
- [SPARK-28308][CORE] A CalendarInterval sub-second részt az elemzés előtt ki kell párnázni
- [SPARK-27485]A EnsureRequirements.reordernek elegánsan kell kezelnie az ismétlődő kifejezéseket
- 2019. július 2.
- Az IOExceptions tolerálása Delta LAST_CHECKPOINT fájl olvasásakor
- 2019. június 18.
- Továbbfejlesztett Databricks Advisor-üzenet a lemezgyorsítótár használatával kapcsolatban
- Kijavítottunk egy hibát, amely a magasabb rendű függvények használatát érinti
- Kijavítottunk egy hibát, amely hatással van a Delta metaadat-lekérdezéseire
- 2019. május 28.
- Helyreállítás hozzáadva a sikertelen kódtár-telepítéshez
- 2019. május 7.
- Port HADOOP-15778 (ABFS: Az ügyféloldali szabályozás javítása olvasáshoz) az Azure Data Lake Storage Gen2-összekötőre
- Port HADOOP-16040 (ABFS: Hibajavítás a tolerateOobAppends konfigurációjához) az Azure Data Lake Storage Gen2-összekötőhöz
- Kijavítottunk egy versenyfeltételt a Delta-napló ellenőrzőösszegfájljának betöltésekor
- Kijavítottuk a Delta ütközésészlelési logikáját, hogy a "beszúrás + felülírás" nem azonosítható tiszta "hozzáfűzési" műveletként
- Győződjön meg arról, hogy a lemez gyorsítótárazása nincs letiltva, ha a tábla ACL-ek engedélyezve vannak
- [SPARK-27494] [SS] A null kulcsok/értékek nem működnek a Kafka 2-ben
- [SPARK-27454] [SPARK-27454] [ML] [SQL] A Spark-rendszerkép-adatforrás meghiúsul, ha illegális képeket tapasztal
- [SPARK-27160] [SQL] Decimális típus javítása orc szűrők létrehozásakor
- [SPARK-27338] [CORE] Holtpont javítása a UnsafeExternalSorter és a TaskMemoryManager között
- 2019. március 26.
- Ne ágyazza be a platformfüggő eltolásokat szó szerint a teljes fázisban létrehozott kódba
- [SPARK-26665][CORE] Kijavítottunk egy hibát, amely miatt a BlockTransferService.fetchBlockSync örökre lefagyhat.
- [SPARK-27134][SQL] array_distinct függvény nem működik megfelelően tömbtömböt tartalmazó oszlopokkal.
- [SPARK-24669][SQL] A TÁBLÁK érvénytelenítése DROP DATABASE CASCADE esetén.
- [SPARK-26572][SQL] az összesített kodekgens eredmény kiértékelését javította.
- Kijavítottunk egy hibát, amely bizonyos PythonUDF-eket érintett.
- 2019. február 26.
- [SPARK-26864][SQL] Előfordulhat, hogy a lekérdezés helytelen eredményt ad vissza, ha a Python udf bal oldali illesztés feltételként van használva.
- [SPARK-26887][PYTHON] Hozzon létre közvetlenül datetime.date értéket a datetime64 helyett köztes adatként.
- Kijavítottunk egy, a JDBC/ODBC-kiszolgálót érintő hibát.
- Kijavítottunk egy, a PySparkot érintő hibát.
- Zárja ki a rejtett fájlokat a HadoopRDD létrehozásakor.
- Kijavítottunk egy hibát a Delta-ban, amely szerializálási problémákat okozott.
- 2019. február 12.
- Kijavítottunk egy hibát, amely a Delta azure ADLS Gen2 csatlakoztatási pontokkal való használatát érinti.
- Kijavítottunk egy hibát, amely miatt a Spark alacsony szintű hálózati protokollja megszakadt, amikor nagy méretű RPC-hibaüzeneteket küld, és engedélyezve van a titkosítás (ha
spark.network.crypto.enabled
igaz értékre van állítva).
- 2019. január 30.
- Kijavítottuk a StackOverflowErrort, amikor ferde illesztési tippet helyezünk a gyorsítótárazott relációra.
- Kijavítottuk az SQL Cache gyorsítótárazott RDD-jének és fizikai tervének inkonzisztenciaét, ami helytelen eredményt eredményezett.
- [SPARK-26706][SQL] A ByteType javítása
illegalNumericPrecedence
. - [SPARK-26709][SQL] Az OptimizeMetadataOnlyQuery nem kezeli megfelelően az üres rekordokat.
- A CSV-/JSON-adatforrásoknak kerülnie kell az elérési utakat a séma következtetésekor.
- Rögzített kényszerkövetkeztetés az Ablak operátoron.
- Kijavítottunk egy hibát, amely hatással volt a tojástárak telepítésére olyan fürtök esetében, amelyeknél engedélyezve van a tábla ACL-je.
Databricks Runtime 5.1 (EoS)
Lásd: Databricks Runtime 5.1 (EoS).
- 2019. augusztus 13.
- A deltastreamelési forrásnak ellenőriznie kell egy tábla legújabb protokollját
- [SPARK-28489][SS] Kijavítottuk azt a hibát, amely miatt a KafkaOffsetRangeCalculator.getRanges elvetheti az eltolódásokat
- 2019. július 30.
- [SPARK-28015][SQL] Ellenőrizze, hogy a stringToDate() az yyyy és az y-[m]m formátumok teljes bemenetét használja-e
- [SPARK-28308][CORE] A CalendarInterval sub-second részt az elemzés előtt ki kell párnázni
- [SPARK-27485]A EnsureRequirements.reordernek elegánsan kell kezelnie az ismétlődő kifejezéseket
- 2019. július 2.
- Az IOExceptions tolerálása Delta LAST_CHECKPOINT fájl olvasásakor
- 2019. június 18.
- Kijavítottunk egy hibát, amely a magasabb rendű függvények használatát érinti
- Kijavítottunk egy hibát, amely hatással van a Delta metaadat-lekérdezéseire
- 2019. május 28.
- Helyreállítás hozzáadva a sikertelen kódtár-telepítéshez
- 2019. május 7.
- Port HADOOP-15778 (ABFS: Az ügyféloldali szabályozás javítása olvasáshoz) az Azure Data Lake Storage Gen2-összekötőre
- Port HADOOP-16040 (ABFS: Hibajavítás a tolerateOobAppends konfigurációjához) az Azure Data Lake Storage Gen2-összekötőhöz
- Kijavítottunk egy versenyfeltételt a Delta-napló ellenőrzőösszegfájljának betöltésekor
- Kijavítottuk a Delta ütközésészlelési logikáját, hogy a "beszúrás + felülírás" nem azonosítható tiszta "hozzáfűzési" műveletként
- [SPARK-27494] [SS] A null kulcsok/értékek nem működnek a Kafka 2-ben
- [SPARK-27454] [SPARK-27454] [ML] [SQL] A Spark-rendszerkép-adatforrás meghiúsul, ha illegális képeket tapasztal
- [SPARK-27160] [SQL] Decimális típus javítása orc szűrők létrehozásakor
- [SPARK-27338] [CORE] Holtpont javítása a UnsafeExternalSorter és a TaskMemoryManager között
- 2019. március 26.
- Ne ágyazza be a platformfüggő eltolásokat szó szerint a teljes fázisban létrehozott kódba
- Kijavítottunk egy hibát, amely bizonyos PythonUDF-eket érintett.
- 2019. február 26.
- [SPARK-26864][SQL] Előfordulhat, hogy a lekérdezés helytelen eredményt ad vissza, ha a Python udf bal oldali illesztés feltételként van használva.
- Kijavítottunk egy, a JDBC/ODBC-kiszolgálót érintő hibát.
- Zárja ki a rejtett fájlokat a HadoopRDD létrehozásakor.
- 2019. február 12.
- Kijavítottunk egy hibát, amely hatással volt a tojástárak telepítésére olyan fürtök esetében, amelyeknél engedélyezve van a tábla ACL-je.
- Kijavítottuk az SQL Cache gyorsítótárazott RDD-jének és fizikai tervének inkonzisztenciaét, ami helytelen eredményt eredményezett.
- [SPARK-26706][SQL] A ByteType javítása
illegalNumericPrecedence
. - [SPARK-26709][SQL] Az OptimizeMetadataOnlyQuery nem kezeli megfelelően az üres rekordokat.
- Rögzített kényszerkövetkeztetés az Ablak operátoron.
- Kijavítottunk egy hibát, amely miatt a Spark alacsony szintű hálózati protokollja megszakadt, amikor nagy méretű RPC-hibaüzeneteket küld, és engedélyezve van a titkosítás (ha
spark.network.crypto.enabled
igaz értékre van állítva).
- 2019. január 30.
- Kijavítottunk egy hibát, amely miatt
df.rdd.count()
az UDT helytelen választ adott vissza bizonyos esetekben. - Kijavítottunk egy hibát, amely a kerekesházak telepítését érintette.
- [SPARK-26267]Próbálkozzon újra, ha helytelen eltolásokat észlel a Kafkától.
- Kijavítottunk egy hibát, amely több streamforrást is érint egy streamelési lekérdezésben.
- Kijavítottuk a StackOverflowErrort, amikor ferde illesztési tippet helyezünk a gyorsítótárazott relációra.
- Kijavítottuk az SQL Cache gyorsítótárazott RDD-jének és fizikai tervének inkonzisztenciaét, ami helytelen eredményt eredményezett.
- Kijavítottunk egy hibát, amely miatt
- 2019. január 8.
- Kijavítottuk a hibát okozó hibát
org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted
. - [SPARK-26352]az illesztés átrendezése nem módosíthatja a kimeneti attribútumok sorrendjét.
- [SPARK-26366]A ReplaceExceptWithFilter függvénynek a NULL értéket hamisnak kell tekintenie.
- Stabilitásjavítás a Delta Lake-ben.
- A Delta Lake engedélyezve van.
- Kijavítottuk azt a hibát, amely miatt az Azure Data Lake Storage Gen2-hozzáférés meghiúsult, amikor a Microsoft Entra ID Hitelesítő adatok átadása engedélyezve lett az Azure Data Lake Storage Gen1-ben.
- A Databricks IO Cache mostantól minden tarifacsomaghoz engedélyezve van az Ls sorozatú feldolgozópéldány-típusok esetében.
- Kijavítottuk a hibát okozó hibát
Databricks Runtime 5.0 (EoS)
Lásd: Databricks Runtime 5.0 (EoS).
- 2019. június 18.
- Kijavítottunk egy hibát, amely a magasabb rendű függvények használatát érinti
- 2019. május 7.
- Kijavítottunk egy versenyfeltételt a Delta-napló ellenőrzőösszegfájljának betöltésekor
- Kijavítottuk a Delta ütközésészlelési logikáját, hogy a "beszúrás + felülírás" nem azonosítható tiszta "hozzáfűzési" műveletként
- [SPARK-27494] [SS] A null kulcsok/értékek nem működnek a Kafka 2-ben
- [SPARK-27454] [SPARK-27454] [ML] [SQL] A Spark-rendszerkép-adatforrás meghiúsul, ha illegális képeket tapasztal
- [SPARK-27160] [SQL] Decimális típus javítása orc szűrők létrehozásakor
- [SPARK-27338] [CORE] Holtpont javítása a UnsafeExternalSorter és a TaskMemoryManager között
- 2019. március 26.
- Ne ágyazza be a platformfüggő eltolásokat szó szerint a teljes fázisban létrehozott kódba
- Kijavítottunk egy hibát, amely bizonyos PythonUDF-eket érintett.
- 2019. március 12.
- [SPARK-26864][SQL] Előfordulhat, hogy a lekérdezés helytelen eredményt ad vissza, ha a Python udf bal oldali illesztés feltételként van használva.
- 2019. február 26.
- Kijavítottunk egy, a JDBC/ODBC-kiszolgálót érintő hibát.
- Zárja ki a rejtett fájlokat a HadoopRDD létrehozásakor.
- 2019. február 12.
- Kijavítottuk az SQL Cache gyorsítótárazott RDD-jének és fizikai tervének inkonzisztenciaét, ami helytelen eredményt eredményezett.
- [SPARK-26706][SQL] A ByteType javítása
illegalNumericPrecedence
. - [SPARK-26709][SQL] Az OptimizeMetadataOnlyQuery nem kezeli megfelelően az üres rekordokat.
- Rögzített kényszerkövetkeztetés az Ablak operátoron.
- Kijavítottunk egy hibát, amely miatt a Spark alacsony szintű hálózati protokollja megszakadt, amikor nagy méretű RPC-hibaüzeneteket küld, és engedélyezve van a titkosítás (ha
spark.network.crypto.enabled
igaz értékre van állítva).
- 2019. január 30.
- Kijavítottunk egy hibát, amely miatt
df.rdd.count()
az UDT helytelen választ adott vissza bizonyos esetekben. - [SPARK-26267]Próbálkozzon újra, ha helytelen eltolásokat észlel a Kafkától.
- Kijavítottunk egy hibát, amely több streamforrást is érint egy streamelési lekérdezésben.
- Kijavítottuk a StackOverflowErrort, amikor ferde illesztési tippet helyezünk a gyorsítótárazott relációra.
- Kijavítottuk az SQL Cache gyorsítótárazott RDD-jének és fizikai tervének inkonzisztenciaét, ami helytelen eredményt eredményezett.
- Kijavítottunk egy hibát, amely miatt
- 2019. január 8.
- Kijavítottuk a hibát okozó hibát
org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted
. - [SPARK-26352]az illesztés átrendezése nem módosíthatja a kimeneti attribútumok sorrendjét.
- [SPARK-26366]A ReplaceExceptWithFilter függvénynek a NULL értéket hamisnak kell tekintenie.
- Stabilitásjavítás a Delta Lake-ben.
- A Delta Lake engedélyezve van.
- A Databricks IO Cache mostantól minden tarifacsomaghoz engedélyezve van az Ls sorozatú feldolgozópéldány-típusok esetében.
- Kijavítottuk a hibát okozó hibát
- 2018. december 18.
- [SPARK-26293]Kivétel a Python UDF-nek az alqueryben való használatakor
- Kijavítottunk egy hibát, amely bizonyos lekérdezéseket érintett a Csatlakozás és a Korlát használatával.
- Újrakonfigurált hitelesítő adatok RDD-nevekből a Spark felhasználói felületén
- 2018. december 6.
- Kijavítottunk egy hibát, amely helytelen lekérdezési eredményt okozott az orderBy használata során, majd a groupBy és a group-by key lett a rendezési kulcs első része.
- FrissítettÉk a Snowflake Connector for Sparkot a 2.4.9.2-spark_2.4_pre_release-ről 2.4.10-re.
- Csak akkor hagyja figyelmen kívül a sérült fájlokat, ha
spark.sql.files.ignoreCorruptFiles
spark.sql.files.ignoreMissingFiles
egy vagy több újrapróbálkozás engedélyezve van. - Kijavítottunk egy hibát, amely bizonyos önegyesítési lekérdezéseket érintett.
- Kijavítottunk egy hibát a takarékos kiszolgálónál, ahol a munkamenetek időnként kiszivárognak a megszakításkor.
- [SPARK-26307]Kijavítottuk a CTAS-t, amikor egy particionált táblát szúrt be a Hive SerDe használatával.
- [SPARK-26147]Az illesztés feltételeként megadott Python UDF-ek akkor is meghiúsulnak, ha csak az illesztés egyik oldaláról származó oszlopokat használnak
- [SPARK-26211]Javítsa ki az InSet bináris, valamint a szerkezet és a tömb null értékű.
- [SPARK-26181]a
hasMinMaxStats
módszerColumnStatsMap
nem helyes. - Kijavítottunk egy hibát, amely a Python Wheels internet-hozzáférés nélküli környezetekben való telepítését érintette.
- 2018. november 20.
- Kijavítottunk egy hibát, amely miatt a jegyzetfüzet nem használható a streamelési lekérdezés megszakítása után.
- Kijavítottunk egy hibát, amely bizonyos lekérdezéseket érintett az ablakfüggvények használatával.
- Kijavítottunk egy hibát, amely több sémamódosítással érintett streamet a Delta-ból.
- Kijavítottunk egy hibát, amely bizonyos aggregációs lekérdezéseket érintett bal oldali fél-/anti illesztésekkel.
Databricks Runtime 4.3 (EoS)
Lásd: Databricks Runtime 4.3 (EoS).
2019. április 9., kedd
- [SPARK-26665][CORE] Kijavítottunk egy hibát, amely miatt a BlockTransferService.fetchBlockSync örökre lefagyhat.
- [SPARK-24669][SQL] A TÁBLÁK érvénytelenítése DROP DATABASE CASCADE esetén.
2019. március 12.
- Kijavítottunk egy, a kódgenerálást befolyásoló hibát.
- Kijavítottunk egy, a Delta-t érintő hibát.
2019. február 26.
- Kijavítottunk egy, a JDBC/ODBC-kiszolgálót érintő hibát.
2019. február 12.
- [SPARK-26709][SQL] Az OptimizeMetadataOnlyQuery nem kezeli megfelelően az üres rekordokat.
- A rejtett fájlok kizárása a HadoopRDD létrehozásakor.
- Kijavítottuk az IN predikátum parquet szűrőátalakítását, ha az értéke üres.
- Kijavítottunk egy hibát, amely miatt a Spark alacsony szintű hálózati protokollja megszakadt, amikor nagy méretű RPC-hibaüzeneteket küld, és engedélyezve van a titkosítás (ha
spark.network.crypto.enabled
igaz értékre van állítva).
2019. január 30.
- Kijavítottunk egy hibát, amely miatt
df.rdd.count()
az UDT helytelen választ adott vissza bizonyos esetekben. - Kijavítottuk az SQL Cache gyorsítótárazott RDD-jének és fizikai tervének inkonzisztenciaét, ami helytelen eredményt eredményezett.
- Kijavítottunk egy hibát, amely miatt
2019. január 8., kedd
- Kijavítottuk a hibát
org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted
okozó hibát. - Újrakonfigurált hitelesítő adatok RDD-nevekből a Spark felhasználói felületén
- [SPARK-26352]az illesztés átrendezése nem módosíthatja a kimeneti attribútumok sorrendjét.
- [SPARK-26366]A ReplaceExceptWithFilter függvénynek a NULL értéket hamisnak kell tekintenie.
- A Delta Lake engedélyezve van.
- A Databricks IO Cache mostantól minden tarifacsomaghoz engedélyezve van az Ls sorozatú feldolgozópéldány-típusok esetében.
- Kijavítottuk a hibát
2018. december 18.
- [SPARK-25002]Avro: módosítsa a kimeneti rekord névterét.
- Kijavítottunk egy hibát, amely bizonyos lekérdezéseket érintett a Csatlakozás és a Korlát használatával.
- [SPARK-26307]Kijavítottuk a CTAS-t, amikor egy particionált táblát szúrt be a Hive SerDe használatával.
- Csak akkor hagyja figyelmen kívül a sérült fájlokat, ha
spark.sql.files.ignoreCorruptFiles
spark.sql.files.ignoreMissingFiles
egy vagy több újrapróbálkozás engedélyezve van. - [SPARK-26181]a
hasMinMaxStats
módszerColumnStatsMap
nem helyes. - Kijavítottunk egy hibát, amely a Python Wheels internet-hozzáférés nélküli környezetekben való telepítését érintette.
- Kijavítottunk egy teljesítményproblémát a lekérdezéselemzőben.
- Kijavítottunk egy hibát a PySparkban, amely miatt a DataFrame-műveletek meghiúsultak a "kapcsolat megtagadva" hibával.
- Kijavítottunk egy hibát, amely bizonyos önegyesítési lekérdezéseket érintett.
2018. november 20.
- [SPARK-17916][SPARK-25241]Javítsa ki a null értékűként elemzett üres sztringet, ha a nullérték be van állítva.
- [SPARK-25387]A hibás CSV-bemenet által okozott NPE javítása.
- Kijavítottunk egy hibát, amely bizonyos aggregációs lekérdezéseket érintett bal oldali fél-/anti illesztésekkel.
2018. november 6.
- [SPARK-25741]A hosszú URL-címek nem jelennek meg megfelelően a webes felhasználói felületen.
- [SPARK-25714]Javítsa ki a null kezelést az optimalizáló szabály Logikai elemsimplification elemében.
- Kijavítottunk egy hibát, amely a Synapse Analytics-összekötőben az ideiglenes objektumok törlését érintette.
- [SPARK-25816]Az attribútumfeloldás javítása beágyazott elszívókban.
2018. október 16.
- Kijavítottunk egy hibát, amely hatással volt a Delta-táblákon való futtatás
SHOW CREATE TABLE
kimenetére. - Kijavítottunk egy működést befolyásoló
Union
hibát.
- Kijavítottunk egy hibát, amely hatással volt a Delta-táblákon való futtatás
2018. szeptember 25.
- [SPARK-25368][SQL] A helytelen kényszerkövetkeztetés helytelen eredményt ad vissza.
- [SPARK-25402][SQL] Null kezelés a booleanSimplificationben.
- Kijavítva
NotSerializableException
az Avro-adatforrásban.
2018. szeptember 11.
- [SPARK-25214][SS] Kijavítottuk azt a hibát, amely miatt a Kafka v2-forrás duplikált rekordokat adhat vissza, amikor
failOnDataLoss=false
. - [SPARK-24987][SS] Kijavíthatja a Kafka fogyasztói szivárgását, ha nincs új eltolás a articlePartition esetében.
- A szűrőcsökkentésnek megfelelően kell kezelnie a null értéket.
- Továbbfejlesztett stabilitás a végrehajtó motor.
- [SPARK-25214][SS] Kijavítottuk azt a hibát, amely miatt a Kafka v2-forrás duplikált rekordokat adhat vissza, amikor
2018. augusztus 28.
- Kijavítottunk egy hibát a Delta Lake Delete parancsban, amely helytelenül törölte azokat a sorokat, ahol a feltétel null értékűnek értékelt.
- [SPARK-25142]Hibaüzenetek hozzáadása, ha a Python-feldolgozó nem tudta megnyitni a szoftvercsatornát.
_load_from_socket
2018. augusztus 23.
- [SPARK-23935]mapEntry dob .
org.codehaus.commons.compiler.CompileException
- Kijavítottuk a null értékű térképpel kapcsolatos problémát a Parquet-olvasóban.
- [SPARK-25051][SQL] A FixNullability nem állhat le az AnalysisBarrierben.
- [SPARK-25081]Kijavítottunk egy hibát, amely miatt a ShuffleExternalSorter hozzáférhet egy felszabadított memóriaoldalhoz, ha a kiömlés nem tudja lefoglalni a memóriát.
- Kijavítottuk a Databricks Delta és a Pyspark közötti interakciót, amely átmeneti olvasási hibákat okozhatott.
- [SPARK-25084]" több oszlopban (zárójelben körbefutva) a "distribute by" (elosztás) kodgenproblémához vezethet.
- [SPARK-25096]Lazítsa meg a nullképességet, ha az öntött erő null értékű.
- Csökkentette a Delta Lake Optimize parancs által használt szálak alapértelmezett számát, csökkentve a memóriaterhelést és az adatok gyorsabb véglegesítését.
- [SPARK-25114]Javítsa ki a RecordBinaryComparatort, ha a két szó közötti kivonás Integer.MAX_VALUE osztható.
- Kijavítottuk a titkos kódkezelő újraválasztását, amikor a parancs részben sikeres volt.
- [SPARK-23935]mapEntry dob .
Databricks Runtime 4.2 (EoS)
Lásd: Databricks Runtime 4.2 (EoS).
2019. február 26.
- Kijavítottunk egy, a JDBC/ODBC-kiszolgálót érintő hibát.
2019. február 12.
- [SPARK-26709][SQL] Az OptimizeMetadataOnlyQuery nem kezeli megfelelően az üres rekordokat.
- A rejtett fájlok kizárása a HadoopRDD létrehozásakor.
- Kijavítottuk az IN predikátum parquet szűrőátalakítását, ha az értéke üres.
- Kijavítottunk egy hibát, amely miatt a Spark alacsony szintű hálózati protokollja megszakadt, amikor nagy méretű RPC-hibaüzeneteket küld, és engedélyezve van a titkosítás (ha
spark.network.crypto.enabled
igaz értékre van állítva).
2019. január 30.
- Kijavítottunk egy hibát, amely miatt
df.rdd.count()
az UDT helytelen választ adott vissza bizonyos esetekben.
- Kijavítottunk egy hibát, amely miatt
2019. január 8., kedd
- Kijavítottuk a hibát okozó hibát
org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted
. - Újrakonfigurált hitelesítő adatok RDD-nevekből a Spark felhasználói felületén
- [SPARK-26352]az illesztés átrendezése nem módosíthatja a kimeneti attribútumok sorrendjét.
- [SPARK-26366]A ReplaceExceptWithFilter függvénynek a NULL értéket hamisnak kell tekintenie.
- A Delta Lake engedélyezve van.
- A Databricks IO Cache mostantól minden tarifacsomaghoz engedélyezve van az Ls sorozatú feldolgozópéldány-típusok esetében.
- Kijavítottuk a hibát okozó hibát
2018. december 18.
- [SPARK-25002]Avro: módosítsa a kimeneti rekord névterét.
- Kijavítottunk egy hibát, amely bizonyos lekérdezéseket érintett a Csatlakozás és a Korlát használatával.
- [SPARK-26307]Kijavítottuk a CTAS-t, amikor egy particionált táblát szúrt be a Hive SerDe használatával.
- Csak akkor hagyja figyelmen kívül a sérült fájlokat, ha
spark.sql.files.ignoreCorruptFiles
spark.sql.files.ignoreMissingFiles
egy vagy több újrapróbálkozás engedélyezve van. - [SPARK-26181]a
hasMinMaxStats
módszerColumnStatsMap
nem helyes. - Kijavítottunk egy hibát, amely a Python Wheels internet-hozzáférés nélküli környezetekben való telepítését érintette.
- Kijavítottunk egy teljesítményproblémát a lekérdezéselemzőben.
- Kijavítottunk egy hibát a PySparkban, amely miatt a DataFrame-műveletek meghiúsultak a "kapcsolat megtagadva" hibával.
- Kijavítottunk egy hibát, amely bizonyos önegyesítési lekérdezéseket érintett.
2018. november 20.
- [SPARK-17916][SPARK-25241]Javítsa ki a null értékűként elemzett üres sztringet, ha a nullérték be van állítva.
- Kijavítottunk egy hibát, amely bizonyos aggregációs lekérdezéseket érintett bal oldali fél-/anti illesztésekkel.
2018. november 6.
- [SPARK-25741]A hosszú URL-címek nem jelennek meg megfelelően a webes felhasználói felületen.
- [SPARK-25714]Javítsa ki a null kezelést az optimalizáló szabály Logikai elemsimplification elemében.
2018. október 16.
- Kijavítottunk egy hibát, amely hatással volt a Delta-táblákon való futtatás
SHOW CREATE TABLE
kimenetére. - Kijavítottunk egy működést befolyásoló
Union
hibát.
- Kijavítottunk egy hibát, amely hatással volt a Delta-táblákon való futtatás
2018. szeptember 25.
- [SPARK-25368][SQL] A helytelen kényszerkövetkeztetés helytelen eredményt ad vissza.
- [SPARK-25402][SQL] Null kezelés a booleanSimplificationben.
- Kijavítva
NotSerializableException
az Avro-adatforrásban.
2018. szeptember 11.
- [SPARK-25214][SS] Kijavítottuk azt a hibát, amely miatt a Kafka v2-forrás duplikált rekordokat adhat vissza, amikor
failOnDataLoss=false
. - [SPARK-24987][SS] Kijavíthatja a Kafka fogyasztói szivárgását, ha nincs új eltolás a articlePartition esetében.
- A szűrőcsökkentésnek megfelelően kell kezelnie a null értéket.
- [SPARK-25214][SS] Kijavítottuk azt a hibát, amely miatt a Kafka v2-forrás duplikált rekordokat adhat vissza, amikor
2018. augusztus 28.
- Kijavítottunk egy hibát a Delta Lake Delete parancsban, amely helytelenül törölte azokat a sorokat, ahol a feltétel null értékűnek értékelt.
2018. augusztus 23.
- Kijavítva a NoClassDefError a Delta Snapshothoz
- [SPARK-23935]mapEntry dob .
org.codehaus.commons.compiler.CompileException
- [SPARK-24957][SQL] A decimális és az összesítés utáni átlag helytelen eredményt ad vissza. Előfordulhat, hogy az ÁTLAG helytelen eredményt ad vissza. Az Átlag operátorban hozzáadott CAST nem lesz megkerülve, ha az osztás eredménye ugyanaz a típus, amelyre a rendszer öntötte.
- [SPARK-25081]Kijavítottunk egy hibát, amely miatt a ShuffleExternalSorter hozzáférhet egy felszabadított memóriaoldalhoz, ha a kiömlés nem tudja lefoglalni a memóriát.
- Kijavítottuk a Databricks Delta és a Pyspark közötti interakciót, amely átmeneti olvasási hibákat okozhatott.
- [SPARK-25114]Javítsa ki a RecordBinaryComparatort, ha a két szó közötti kivonás Integer.MAX_VALUE osztható.
- [SPARK-25084]" több oszlopban (zárójelben körbefutva) a "distribute by" (elosztás) kodgenproblémához vezethet.
- [SPARK-24934][SQL] Kifejezetten engedélyezi a támogatott típusok engedélyezését a memóriabeli partíciók metszéséhez a felső/alsó határban. Ha összetett adattípusokat használnak a gyorsítótárazott adatok lekérdezési szűrőiben, a Spark mindig üres eredményhalmazt ad vissza. A memórián belüli stats-alapú metszés helytelen eredményeket hoz létre, mivel a null érték az összetett típusok felső/alsó határához van beállítva. A javítás célja, hogy ne használjon memóriabeli stats-alapú metszést összetett típusok esetében.
- Kijavítottuk a titkos kódkezelő újraválasztását, amikor a parancs részben sikeres volt.
- Kijavítottuk a null értékű térképpel kapcsolatos problémát a Parquet-olvasóban.
2018. augusztus 2.
- A writeStream.table API hozzáadva a Pythonban.
- Kijavítottunk egy, a Delta-ellenőrzőpontozást érintő hibát.
- [SPARK-24867][SQL] Adja hozzá az AnalysisBarriert a DataFrameWriterhez. Az SQL Cache nem használható a DataFrameWriter használata DataFrame-keretrendszer UDF-sel való írásához. Ezt a regressziót az AnalysisBarrierben végrehajtott módosítások okozzák, mivel nem minden elemző szabály idempotens.
- Kijavítottunk egy hibát, amely miatt
mergeInto
a parancs helytelen eredményeket eredményezett. - Jobb stabilitás az 1. generációs Azure Data Lake Storage eléréséhez.
- [SPARK-24809]A LongHashedRelation végrehajtóban való szerializálása adathibát okozhat.
- [SPARK-24878][SQL] Javítsa ki a null értéket tartalmazó primitív típusú tömbtípus fordított függvényét.
2018. július 11.
- Kijavítottunk egy hibát a lekérdezés végrehajtásában, amely miatt a decimális oszlopok különböző pontosságú összesítései bizonyos esetekben helytelen eredményeket adnak vissza.
- Kijavítottunk egy
NullPointerException
hibát, amely a speciális összesítési műveletek, például a csoportosítási csoportok során merült fel.
Databricks Runtime 4.1 ML (EoS)
Lásd: Databricks Runtime 4.1 ML (EoS).
- 2018. július 31.
- Azure Synapse Analytics hozzáadva az ML Runtime 4.1-hez
- Kijavítottunk egy hibát, amely helytelen lekérdezési eredményeket okozhatott, ha egy predikátumban használt partícióoszlop neve eltér a tábla sémájában lévő oszlop nevétől.
- Kijavítottunk egy hibát, amely a Spark SQL végrehajtási motort érintette.
- Kijavítottunk egy, a kódgenerálást befolyásoló hibát.
- Kijavítottunk egy, a Delta Lake-t érintő hibát (
java.lang.NoClassDefFoundError
). - Továbbfejlesztett hibakezelés a Delta Lake-ben.
- Kijavítottunk egy hibát, amely miatt a 32 karakteres vagy annál nagyobb sztringoszlopok nem megfelelő adatkiugrási statisztikákat gyűjtöttek össze.
Databricks Runtime 4.1 (EoS)
Lásd: Databricks Runtime 4.1 (EoS).
2019. január 8., kedd
- [SPARK-26366]A ReplaceExceptWithFilter függvénynek a NULL értéket hamisnak kell tekintenie.
- A Delta Lake engedélyezve van.
2018. december 18.
- [SPARK-25002]Avro: módosítsa a kimeneti rekord névterét.
- Kijavítottunk egy hibát, amely bizonyos lekérdezéseket érintett a Csatlakozás és a Korlát használatával.
- [SPARK-26307]Kijavítottuk a CTAS-t, amikor egy particionált táblát szúrt be a Hive SerDe használatával.
- Csak akkor hagyja figyelmen kívül a sérült fájlokat, ha
spark.sql.files.ignoreCorruptFiles
spark.sql.files.ignoreMissingFiles
egy vagy több újrapróbálkozás engedélyezve van. - Kijavítottunk egy hibát, amely a Python Wheels internet-hozzáférés nélküli környezetekben való telepítését érintette.
- Kijavítottunk egy hibát a PySparkban, amely miatt a DataFrame-műveletek meghiúsultak a "kapcsolat megtagadva" hibával.
- Kijavítottunk egy hibát, amely bizonyos önegyesítési lekérdezéseket érintett.
2018. november 20.
- [SPARK-17916][SPARK-25241]Javítsa ki a null értékűként elemzett üres sztringet, ha a nullérték be van állítva.
- Kijavítottunk egy hibát, amely bizonyos aggregációs lekérdezéseket érintett bal oldali fél-/anti illesztésekkel.
2018. november 6.
- [SPARK-25741]A hosszú URL-címek nem jelennek meg megfelelően a webes felhasználói felületen.
- [SPARK-25714]Javítsa ki a null kezelést az optimalizáló szabály Logikai elemsimplification elemében.
2018. október 16.
- Kijavítottunk egy hibát, amely hatással volt a Delta-táblákon való futtatás
SHOW CREATE TABLE
kimenetére. - Kijavítottunk egy működést befolyásoló
Union
hibát.
- Kijavítottunk egy hibát, amely hatással volt a Delta-táblákon való futtatás
2018. szeptember 25.
- [SPARK-25368][SQL] A helytelen kényszerkövetkeztetés helytelen eredményt ad vissza.
- [SPARK-25402][SQL] Null kezelés a booleanSimplificationben.
- Kijavítva
NotSerializableException
az Avro-adatforrásban.
2018. szeptember 11.
- [SPARK-25214][SS] Kijavítottuk azt a hibát, amely miatt a Kafka v2-forrás duplikált rekordokat adhat vissza, amikor
failOnDataLoss=false
. - [SPARK-24987][SS] Kijavíthatja a Kafka fogyasztói szivárgását, ha nincs új eltolás a articlePartition esetében.
- A szűrőcsökkentésnek megfelelően kell kezelnie a null értéket.
- [SPARK-25214][SS] Kijavítottuk azt a hibát, amely miatt a Kafka v2-forrás duplikált rekordokat adhat vissza, amikor
2018. augusztus 28.
- Kijavítottunk egy hibát a Delta Lake Delete parancsban, amely helytelenül törölte azokat a sorokat, ahol a feltétel null értékűnek értékelt.
- [SPARK-25084]" több oszlopban (zárójelben körbefutva) a "distribute by" (elosztás) kodgenproblémához vezethet.
- [SPARK-25114]Javítsa ki a RecordBinaryComparatort, ha a két szó közötti kivonás Integer.MAX_VALUE osztható.
2018. augusztus 23.
- Kijavítottuk a NoClassDefError függvényt a Delta Snapshothoz.
- [SPARK-24957][SQL] A decimális és az összesítés utáni átlag helytelen eredményt ad vissza. Előfordulhat, hogy az ÁTLAG helytelen eredményt ad vissza. Az Átlag operátorban hozzáadott CAST nem lesz megkerülve, ha az osztás eredménye ugyanaz a típus, amelyre a rendszer öntötte.
- Kijavítottuk a null értékű térképpel kapcsolatos problémát a Parquet-olvasóban.
- [SPARK-24934][SQL] Kifejezetten engedélyezi a támogatott típusok engedélyezését a memóriabeli partíciók metszéséhez a felső/alsó határban. Ha összetett adattípusokat használnak a gyorsítótárazott adatok lekérdezési szűrőiben, a Spark mindig üres eredményhalmazt ad vissza. A memórián belüli stats-alapú metszés helytelen eredményeket hoz létre, mivel a null érték az összetett típusok felső/alsó határához van beállítva. A javítás célja, hogy ne használjon memóriabeli stats-alapú metszést összetett típusok esetében.
- [SPARK-25081]Kijavítottunk egy hibát, amely miatt a ShuffleExternalSorter hozzáférhet egy felszabadított memóriaoldalhoz, ha a kiömlés nem tudja lefoglalni a memóriát.
- Kijavítottuk a Databricks Delta és a Pyspark közötti interakciót, amely átmeneti olvasási hibákat okozhatott.
- Kijavítottuk a titkos kódkezelő újraválasztását, ha a parancs részben sikeres volt
2018. augusztus 2.
- [SPARK-24613][SQL] Az UDF-et tartalmazó gyorsítótár nem feleltethető meg a későbbi függő gyorsítótáraknak. A logikai tervet egy AnalysisBarrierrel burkolja össze a CacheManagerben a végrehajtási terv összeállításához, hogy elkerülje a terv ismételt elemzését. Ez a Spark 2.3 regressziója is.
- Kijavítottunk egy Synapse Analytics-összekötő hibát, amely hatással volt a DateType-adatok írásának időzónás konvertálására.
- Kijavítottunk egy, a Delta-ellenőrzőpontozást érintő hibát.
- Kijavítottunk egy hibát, amely miatt
mergeInto
a parancs helytelen eredményeket eredményezett. - [SPARK-24867][SQL] Adja hozzá az AnalysisBarriert a DataFrameWriterhez. Az SQL Cache nem használható a DataFrameWriter használata DataFrame-keretrendszer UDF-sel való írásához. Ezt a regressziót az AnalysisBarrierben végrehajtott módosítások okozzák, mivel nem minden elemző szabály idempotens.
- [SPARK-24809]A LongHashedRelation végrehajtóban való szerializálása adathibát okozhat.
2018. július 11.
- Kijavítottunk egy hibát a lekérdezés végrehajtásában, amely miatt a decimális oszlopok különböző pontosságú összesítései bizonyos esetekben helytelen eredményeket adnak vissza.
- Kijavítottunk egy
NullPointerException
hibát, amely a speciális összesítési műveletek, például a csoportosítási csoportok során merült fel.
2018. június 28.
- Kijavítottunk egy hibát, amely helytelen lekérdezési eredményeket okozhatott, ha egy predikátumban használt partícióoszlop neve eltér a tábla sémájában lévő oszlop nevétől.
2018. június 7.
- Kijavítottunk egy hibát, amely a Spark SQL végrehajtási motort érintette.
- Kijavítottunk egy, a kódgenerálást befolyásoló hibát.
- Kijavítottunk egy, a Delta Lake-t érintő hibát (
java.lang.NoClassDefFoundError
). - Továbbfejlesztett hibakezelés a Delta Lake-ben.
2018. május 17.
- Kijavítottunk egy hibát, amely miatt a 32 karakteres vagy annál nagyobb sztringoszlopok nem megfelelő adatkiugrási statisztikákat gyűjtöttek össze.
Databricks Runtime 4.0 (EoS)
Lásd: Databricks Runtime 4.0 (EoS).
2018. november 6.
- [SPARK-25714]Javítsa ki a null kezelést az optimalizáló szabály Logikai elemsimplification elemében.
2018. október 16.
- Kijavítottunk egy működést befolyásoló
Union
hibát.
- Kijavítottunk egy működést befolyásoló
2018. szeptember 25.
- [SPARK-25368][SQL] A helytelen kényszerkövetkeztetés helytelen eredményt ad vissza.
- [SPARK-25402][SQL] Null kezelés a booleanSimplificationben.
- Kijavítva
NotSerializableException
az Avro-adatforrásban.
2018. szeptember 11.
- A szűrőcsökkentésnek megfelelően kell kezelnie a null értéket.
2018. augusztus 28.
- Kijavítottunk egy hibát a Delta Lake Delete parancsban, amely helytelenül törölte azokat a sorokat, ahol a feltétel null értékűnek értékelt.
2018. augusztus 23.
- Kijavítottuk a null értékű térképpel kapcsolatos problémát a Parquet-olvasóban.
- Kijavítottuk a titkos kódkezelő újraválasztását, ha a parancs részben sikeres volt
- Kijavítottuk a Databricks Delta és a Pyspark közötti interakciót, amely átmeneti olvasási hibákat okozhatott.
- [SPARK-25081]Kijavítottunk egy hibát, amely miatt a ShuffleExternalSorter hozzáférhet egy felszabadított memóriaoldalhoz, ha a kiömlés nem tudja lefoglalni a memóriát.
- [SPARK-25114]Javítsa ki a RecordBinaryComparatort, ha a két szó közötti kivonás Integer.MAX_VALUE osztható.
2018. augusztus 2.
- [SPARK-24452]Kerülje a lehetséges túlcsordulást az int add vagy multiple fájlban.
- [SPARK-24588]A streameléshez hashClusteredPartition-ra van szükség a gyermekektől.
- Kijavítottunk egy hibát, amely miatt
mergeInto
a parancs helytelen eredményeket eredményezett. - [SPARK-24867][SQL] Adja hozzá az AnalysisBarriert a DataFrameWriterhez. Az SQL Cache nem használható a DataFrameWriter használata DataFrame-keretrendszer UDF-sel való írásához. Ezt a regressziót az AnalysisBarrierben végrehajtott módosítások okozzák, mivel nem minden elemző szabály idempotens.
- [SPARK-24809]A LongHashedRelation végrehajtóban való szerializálása adathibát okozhat.
2018. június 28.
- Kijavítottunk egy hibát, amely helytelen lekérdezési eredményeket okozhatott, ha egy predikátumban használt partícióoszlop neve eltér a tábla sémájában lévő oszlop nevétől.
2018. június 7.
- Kijavítottunk egy hibát, amely a Spark SQL végrehajtási motort érintette.
- Továbbfejlesztett hibakezelés a Delta Lake-ben.
2018. május 17.
- Hibajavítások a Databricks titkos kulcskezeléséhez.
- Nagyobb stabilitás az Azure Data Lake Store-ban tárolt adatok olvasása során.
- Kijavítottunk egy, az RDD-gyorsítótárazást érintő hibát.
- Kijavítottunk egy hibát, amely a Null-safe Equal értéket érintette a Spark SQL-ben.
2018. április 24.
- Frissítette az Azure Data Lake Store SDK-t 2.0.11-ről 2.2.8-ra az Azure Data Lake Store-hoz való hozzáférés stabilitásának javítása érdekében.
- Kijavítottunk egy hibát, amely hatással volt a particionált Hive-táblák felülírásának beszúrására, amikor
spark.databricks.io.hive.fastwriter.enabled
az .false
- Kijavítottunk egy hibát, amely nem sikerült a feladat szerializálása.
- Továbbfejlesztett Delta Lake-stabilitás.
2018. március 14.
- Megakadályozza a szükségtelen metaadat-frissítéseket a Delta Lake-be való íráskor.
- Kijavítottunk egy versenytilalom által okozott hibát, amely ritka körülmények között néhány kimeneti fájl elvesztéséhez vezethet.
Databricks Runtime 3.5 LTS (EoS)
Lásd: Databricks Runtime 3.5 LTS (EoS).
2019. november 7.
- [SPARK-29743]Az [SQL] mintának igaz értékre kell állítania a needCopyResult értéket, ha a gyermek needCopyResult értéke igaz
2019. október 8., kedd
- Kiszolgálóoldali módosítások, amelyek lehetővé teszik, hogy a Simba Apache Spark ODBC-illesztő újracsatlakozhasson, és az eredmények lekérése során kapcsolathiba után folytassa a műveletet (a Simba Apache Spark ODBC-illesztőprogram 2.6.10-es verzióra való frissítését igényli).
2019. szeptember 10.
- [SPARK-28699][SQL] A ShuffleExchangeExec radix rendezési funkciójának letiltása újraparticionálási esetben
2019. április 9., kedd
- [SPARK-26665][CORE] Kijavítottunk egy hibát, amely miatt a BlockTransferService.fetchBlockSync örökre lefagyhat.
2019. február 12.
- Kijavítottunk egy hibát, amely miatt a Spark alacsony szintű hálózati protokollja megszakadt, amikor nagy méretű RPC-hibaüzeneteket küld, és engedélyezve van a titkosítás (ha
spark.network.crypto.enabled
igaz értékre van állítva).
- Kijavítottunk egy hibát, amely miatt a Spark alacsony szintű hálózati protokollja megszakadt, amikor nagy méretű RPC-hibaüzeneteket küld, és engedélyezve van a titkosítás (ha
2019. január 30.
- Kijavítottunk egy hibát, amely miatt
df.rdd.count()
az UDT helytelen választ adott vissza bizonyos esetekben.
- Kijavítottunk egy hibát, amely miatt
2018. december 18.
- Csak akkor hagyja figyelmen kívül a sérült fájlokat, ha
spark.sql.files.ignoreCorruptFiles
spark.sql.files.ignoreMissingFiles
egy vagy több újrapróbálkozás engedélyezve van. - Kijavítottunk egy hibát, amely bizonyos önegyesítési lekérdezéseket érintett.
- Csak akkor hagyja figyelmen kívül a sérült fájlokat, ha
2018. november 20.
- [SPARK-25816]Kijavítottuk az attribútumfeloldásokat a beágyazott elszívókban.
2018. november 6.
- [SPARK-25714]Javítsa ki a null kezelést az optimalizáló szabály Logikai elemsimplification elemében.
2018. október 16.
- Kijavítottunk egy működést befolyásoló
Union
hibát.
- Kijavítottunk egy működést befolyásoló
2018. szeptember 25.
- [SPARK-25402][SQL] Null kezelés a booleanSimplificationben.
- Kijavítva
NotSerializableException
az Avro-adatforrásban.
2018. szeptember 11.
- A szűrőcsökkentésnek megfelelően kell kezelnie a null értéket.
2018. augusztus 28.
- Kijavítottunk egy hibát a Delta Lake Delete parancsban, amely helytelenül törölte azokat a sorokat, ahol a feltétel null értékűnek értékelt.
- [SPARK-25114]Javítsa ki a RecordBinaryComparatort, ha a két szó közötti kivonás Integer.MAX_VALUE osztható.
2018. augusztus 23.
- [SPARK-24809]A LongHashedRelation végrehajtóban való szerializálása adathibát okozhat.
- Kijavítottuk a null értékű térképpel kapcsolatos problémát a Parquet-olvasóban.
- [SPARK-25081]Kijavítottunk egy hibát, amely miatt a ShuffleExternalSorter hozzáférhet egy felszabadított memóriaoldalhoz, ha a kiömlés nem tudja lefoglalni a memóriát.
- Kijavítottuk a Databricks Delta és a Pyspark közötti interakciót, amely átmeneti olvasási hibákat okozhatott.
2018. június 28.
- Kijavítottunk egy hibát, amely helytelen lekérdezési eredményeket okozhatott, ha egy predikátumban használt partícióoszlop neve eltér a tábla sémájában lévő oszlop nevétől.
2018. június 28.
- Kijavítottunk egy hibát, amely helytelen lekérdezési eredményeket okozhatott, ha egy predikátumban használt partícióoszlop neve eltér a tábla sémájában lévő oszlop nevétől.
2018. június 7.
- Kijavítottunk egy hibát, amely a Spark SQL végrehajtási motort érintette.
- Továbbfejlesztett hibakezelés a Delta Lake-ben.
2018. május 17.
- Nagyobb stabilitás az Azure Data Lake Store-ban tárolt adatok olvasása során.
- Kijavítottunk egy, az RDD-gyorsítótárazást érintő hibát.
- Kijavítottunk egy hibát, amely a Null-safe Equal értéket érintette a Spark SQL-ben.
- Kijavítottunk egy hibát, amely a streamelési lekérdezések bizonyos összesítéseit érintette.
2018. április 24.
- Frissítette az Azure Data Lake Store SDK-t 2.0.11-ről 2.2.8-ra az Azure Data Lake Store-hoz való hozzáférés stabilitásának javítása érdekében.
- Kijavítottunk egy hibát, amely hatással volt a particionált Hive-táblák felülírásának beszúrására, amikor
spark.databricks.io.hive.fastwriter.enabled
az .false
- Kijavítottunk egy hibát, amely nem sikerült a feladat szerializálása.
2018. március 09.
- Kijavítottunk egy versenytilalom által okozott hibát, amely ritka körülmények között néhány kimeneti fájl elvesztéséhez vezethet.
2018. március 01.
- Javította a streamek kezelésének hatékonyságát, ami hosszú időt vehet igénybe.
- Kijavítottunk egy, a Python automatikus kiegészítését érintő hibát.
- Alkalmazott Ubuntu biztonsági javítások.
- Kijavítottunk egy hibát, amely bizonyos, Python UDF-eket és ablakfüggvényeket használó lekérdezéseket érintett.
- Kijavítottunk egy hibát, amely hatással volt az UDF-ek használatára egy olyan fürtön, amelyen engedélyezve volt a táblahozzáférés-vezérlés.
2018. január 29.
- Kijavítottunk egy hibát, amely hatással volt az Azure Blob Storage-ban tárolt táblák manipulálására.
- Az üres DataFrame-en a dropDuplicates után kijavítottuk az összesítést.
Databricks Runtime 3.4 (EoS)
Lásd: Databricks Runtime 3.4 (EoS).
2018. június 7.
- Kijavítottunk egy hibát, amely a Spark SQL végrehajtási motort érintette.
- Továbbfejlesztett hibakezelés a Delta Lake-ben.
2018. május 17.
- Nagyobb stabilitás az Azure Data Lake Store-ban tárolt adatok olvasása során.
- Kijavítottunk egy, az RDD-gyorsítótárazást érintő hibát.
- Kijavítottunk egy hibát, amely a Null-safe Equal értéket érintette a Spark SQL-ben.
2018. április 24.
- Kijavítottunk egy hibát, amely hatással volt a particionált Hive-táblák felülírásának beszúrására, amikor
spark.databricks.io.hive.fastwriter.enabled
az .false
- Kijavítottunk egy hibát, amely hatással volt a particionált Hive-táblák felülírásának beszúrására, amikor
2018. március 09.
- Kijavítottunk egy versenytilalom által okozott hibát, amely ritka körülmények között néhány kimeneti fájl elvesztéséhez vezethet.
2017. december 13.
- Kijavítottunk egy hibát, amely a Scala UDF-eit érinti.
- Kijavítottunk egy hibát, amely a nem DBFS-útvonalakon tárolt adatforrástáblák adatátugró indexének használatát befolyásolta.
2017. december 07.
- Továbbfejlesztett shuffle stabilitás.
Nem támogatott Databricks Runtime-kiadások
Az eredeti kibocsátási megjegyzésekhez kövesse az alcím alatti hivatkozást.