Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Nota
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 17.0, didukung oleh Apache Spark 4.0.0.
Databricks merilis versi ini pada Juni 2025.
Fitur dan peningkatan baru
- SparkML sekarang didukung pada kluster standar
- Dukungan prosedur SQL
- Mengatur kolase default untuk Fungsi SQL
- Ekspresi tabel umum rekursif (Pratinjau Umum)
- ANSI SQL diaktifkan secara default
-
PySpark dan Spark Connect sekarang mendukung API DataFrames
df.mergeInto -
Dukungan
ALL CATALOGSdalamSHOWSKEMA - Pengelompokan cairan sekarang memadatkan vektor penghapusan lebih efisien
-
Perbolehkan ekspresi non-deterministik dalam
UPDATE/INSERTnilai kolom untukMERGEoperasi - Mengabaikan dan mengatasi struct kosong untuk penyerapan AutoLoader (terutama Avro)
- Ubah API Delta MERGE Python dan Scala untuk mengembalikan DataFrame alih-alih Unit
- Mendukung kata kunci VAR untuk mendeklarasikan dan menghilangkan variabel SQL
- Meningkatkan pustaka Apache Parquet
- Mendukung federasi identitas beban kerja untuk Google Cloud Pub/Sub
SparkML sekarang didukung pada kluster standar
Mode akses standar (sebelumnya mode akses bersama) sekarang mendukung Spark ML di PySpark (pyspark.ml) dan MLflow untuk Spark (mlflow.spark). Untuk penyetelan hiperparameter, Databricks merekomendasikan penggunaan Optuna dan Joblib Spark pada kluster standar.
Batasan berikut berlaku saat menjalankan SparkML pada kluster standar:
- Ukuran model maksimum adalah 1GB.
- Ukuran cache model maksimum per sesi adalah 10GB.
- Pelatihan model pohon berhenti lebih awal jika ukuran model akan melebihi 1GB.
- Model SparkML berikut ini tidak didukung:
- DistributedLDAModel
- FPGrowthModel
Dukungan prosedur SQL
Skrip SQL sekarang dapat dienkapsulasi dalam prosedur yang disimpan sebagai aset yang dapat digunakan kembali di Unity Catalog. Anda dapat membuat prosedur menggunakan perintah CREATE PROCEDURE , lalu memanggilnya menggunakan perintah PANGGIL .
Mengatur kolase default untuk Fungsi SQL
Menggunakan klausa baru DEFAULT COLLATION dalam perintah CREATE FUNCTION menentukan pengurutan default yang digunakan untuk parameter STRING, jenis pengembalian, dan literal STRING dalam isi fungsi.
Ekspresi tabel umum rekursif (Uji Coba Publik)
Azure Databricks sekarang mendukung navigasi data hierarkis menggunakan ekspresi tabel umum rekursif (rCTEs). Gunakan CTE referensi mandiri dengan UNION ALL untuk mengikuti hubungan rekursif.
ANSI SQL diaktifkan secara default
Dialek SQL default sekarang adalah ANSI SQL. ANSI SQL adalah standar yang mapan dan akan membantu melindungi pengguna dari hasil yang tidak terduga atau salah. Baca panduan pengaktifan Databricks ANSI untuk informasi selengkapnya.
PySpark dan Spark Connect sekarang mendukung API DataFrames df.mergeInto
PySpark dan Spark Connect sekarang mendukung df.mergeInto API, yang sebelumnya hanya tersedia untuk Scala.
Dukungan ALL CATALOGS pada SHOW SKEMA
Sintaks SHOW SCHEMAS diperbarui untuk menerima sintaks berikut:
SHOW SCHEMAS [ { FROM | IN } { catalog_name | ALL CATALOGS } ] [ [ LIKE ] pattern ]
Ketika ALL CATALOGS ditentukan dalam SHOW kueri, eksekusi berulang melalui semua katalog aktif yang mendukung namespace menggunakan manajer katalog (DsV2). Untuk setiap katalog, katalog menyertakan namespace tingkat atas.
Atribut output dan skema perintah telah dimodifikasi untuk menambahkan kolom yang catalog menunjukkan katalog namespace yang sesuai. Kolom baru ditambahkan ke akhir atribut output, seperti yang ditunjukkan di bawah ini:
Output sebelumnya
| Namespace |
|------------------|
| test-namespace-1 |
| test-namespace-2 |
Output baru
| Namespace | Catalog |
|------------------|----------------|
| test-namespace-1 | test-catalog-1 |
| test-namespace-2 | test-catalog-2 |
Pengelompokan cairan sekarang memadatkan vektor penghapusan dengan lebih efisien
Tabel Delta yang menggunakan pengklusteran Liquid sekarang menerapkan perubahan fisik dari vektor penghapusan dengan lebih efisien saat OPTIMIZE dijalankan. Untuk detail selengkapnya, lihat Menerapkan perubahan pada file data Parquet.
Perbolehkan ekspresi non-deterministik pada nilai kolom UPDATE/INSERT untuk operasi MERGE
Azure Databricks sekarang memungkinkan penggunaan ekspresi non-deterministik dalam nilai-nilai kolom yang diperbarui dan disisipkan melalui operasi MERGE. Namun, ekspresi non-deterministik dalam kondisi pada pernyataan MERGE tidak didukung.
Misalnya, Anda sekarang dapat menghasilkan nilai dinamis atau acak untuk kolom:
MERGE INTO target USING source
ON target.key = source.key
WHEN MATCHED THEN UPDATE SET target.value = source.value + rand()
Ini dapat membantu privasi data untuk mengaburkan data aktual sambil mempertahankan properti data (seperti nilai rata-rata atau kolom komputasi lainnya).
Mengabaikan dan menyelamatkan struct kosong untuk penyerapan AutoLoader (terutama Avro)
Auto Loader sekarang menyelamatkan jenis data Avro dengan skema kosong karena tabel Delta tidak mendukung penyerapan data bertipe kosong struct.
Ubah API Delta MERGE Python dan Scala untuk mengembalikan DataFrame alih-alih Unit
API Scala dan Python MERGE (seperti DeltaMergeBuilder) sekarang juga mengembalikan DataFrame seperti yang dilakukan SQL API, dengan hasil yang sama.
Mendukung kata kunci VAR untuk mendeklarasikan dan menghilangkan variabel SQL
Sintaks SQL untuk mendeklarasikan dan menghilangkan variabel sekarang mendukung VAR kata kunci selain VARIABLE. Perubahan ini menyatukan sintaks di semua operasi terkait variabel, yang meningkatkan konsistensi dan mengurangi kebingungan bagi pengguna yang sudah menggunakan VAR saat mengatur variabel.
Memperbarui pustaka Apache Parquet
Pustaka Apache Parquet telah ditingkatkan dari versi 1.13.1 ke 1.15.1 untuk memastikan kompatibilitas dengan Spark 4.0. Pembaruan ini mencakup peningkatan performa, perbaikan bug, dan dukungan fitur Parquet yang ditingkatkan di seluruh modul berikut:
- parquet-column
- parquet-common
- parquet-encoding
- parquet-format-structures
- parquet-hadoop
- parquet-jackson
Mendukung federasi identitas beban kerja untuk Google Cloud Pub/Sub
Anda sekarang dapat menggunakan federasi identitas beban kerja untuk terhubung dengan aman ke Google Cloud Pub/Sub dari Databricks tanpa memerlukan kunci akun layanan. Ini menyederhanakan autentikasi untuk beban kerja streaming dan penyerapan data yang terintegrasi dengan Pub/Sub.
Perubahan perilaku
- Sertifikat CA kustom Databricks File System (DBFS) tidak lagi didukung
- Menghapus bagian "True cache misses" pada Spark UI
- Menghapus metrik "Cache Metadata Manager Peak Disk Usage" di antarmuka pengguna Spark
- Menghapus bagian "Rescheduled cache miss bytes" pada Spark UI
-
CREATE VIEWklausa tingkat kolom sekarang menghasilkan kesalahan ketika klausul hanya akan berlaku untuk tampilan material
Sertifikat CA kustom Databricks File System (DBFS) tidak lagi didukung
Sebagai bagian dari upaya berkelanjutan untuk menghentikan penyimpanan data di root DBFS dan mounting DBFS, sertifikat CA kustom DBFS tidak didukung di Databricks Runtime 17.0 dan versi yang lebih baru. Untuk rekomendasi tentang bekerja dengan file, lihat Bekerja dengan file di Azure Databricks.
Menghapus bagian "True cache misses" di antarmuka pengguna Spark
Perubahan ini menghapus dukungan untuk metrik "Cache true misses size" (untuk cache terkompresi dan tidak terkompresi). Metrik "Cache writes misses" mengukur informasi yang sama.
numLocalScanTasks Gunakan sebagai proksi yang layak untuk metrik ini, ketika niat Anda adalah untuk melihat performa cache saat file ditetapkan ke pelaksana yang tepat.
Menghapus metrik "Cache Metadata Manager Peak Disk Usage" di antarmuka pengguna Spark
Perubahan ini menghapus dukungan untuk metrik cacheLocalityMgrDiskUsageInBytes dan cacheLocalityMgrTimeMs dari Databricks Runtime dan Spark UI.
Menghapus bagian "Rescheduled cache miss bytes" di UI Spark
Menghapus metrik ukuran cache yang dijadwalkan ulang dan ukuran cache yang dijadwalkan ulang (tidak dikompresi) dari Databricks Runtime. Ini dilakukan karena ini mengukur performa cache ketika file ditetapkan ke pelaksana yang tidak disukai. numNonLocalScanTasks adalah proksi yang baik untuk metrik ini.
CREATE VIEW klausa tingkat kolom sekarang menghasilkan kesalahan ketika klausul hanya akan berlaku untuk tampilan materialisasi
CREATE VIEW perintah yang menentukan klausa tingkat kolom yang hanya valid untuk MATERIALIZED VIEWs sekarang menghasilkan kesalahan. Klausa yang terpengaruh untuk CREATE VIEW perintah adalah:
NOT NULL- Jenis data tertentu, seperti
FLOATatauSTRING DEFAULTCOLUMN MASK
Peningkatan pustaka
Pustaka Python yang ditingkatkan:
- azure-core dari 1.31.0 hingga 1.34.0
- hitam dari 24.4.2 hingga 24.10.0
- boto3 dari 1.34.69 ke 1.36.2
- botocore dari 1.34.69 ke 1.36.3
- cachetool dari 5.3.3 hingga 5.5.1
- certifi dari 2024.6.2 hingga 2025.1.31
- cffi dari 1.16.0 hingga 1.17.1
- charset-normalizer dari 2.0.4 hingga 3.3.2
- cloudpickle dari 2.2.1 hingga 3.0.0
- contourpy dari 1.2.0 ke 1.3.1
- kriptografi dari 42.0.5 hingga 43.0.3
- Cython dari 3.0.11 hingga 3.0.12
- databricks-sdk dari 0.30.0 hingga 0.49.0
- debugpy dari 1.6.7 ke 1.8.11
- Tidak digunakan lagi dari 1.2.14 ke 1.2.13
- distlib dari 0.3.8 hingga 0.3.9
- filelock dari 3.15.4 ke 3.18.0
- fonttools dari 4.51.0 hingga 4.55.3
- GitPython dari 3.1.37 ke 3.1.43
- google-auth dari 2.35.0 hingga 2.40.0
- google-cloud-core dari 2.4.1 hingga 2.4.3
- google-cloud-storage dari 2.18.2 hingga 3.1.0
- google-crc32c dari 1.6.0 hingga 1.7.1
- grpcio dari 1.60.0 ke 1.67.0
- grpcio-status dari 1.60.0 ke 1.67.0
- importlib-metadata dari 6.0.0 hingga 6.6.0
- ipyflow-core dari 0.0.201 hingga 0.0.209
- ipykernel dari 6.28.0 ke 6.29.5
- ipython dari 8.25.0 hingga 8.30.0
- ipywidgets dari 7.7.2 ke 7.8.1
- jedi dari 0.19.1 hingga 0.19.2
- jupyter_client dari 8.6.0 hingga 8.6.3
- kiwisolver dari 1.4.4 ke 1.4.8
- matplotlib dari 3.8.4 ke 3.10.0
- matplotlib-inline dari 0.1.6 hingga 0.1.7
- mlflow-skinny dari 2.19.0 hingga 2.22.0
- numpy dari 1.26.4 hingga 2.1.3
- opentelemetry-api dari 1.27.0 hingga 1.32.1
- opentelemetry-sdk dari 1.27.0 hingga 1.32.1
- opentelemetry-semantic-conventions dari 0.48b0 ke 0.53b1
- pandas dari versi 1.5.3 hingga versi 2.2.3
- parso dari 0.8.3 hingga 0.8.4
- patsy dari 0.5.6 ke 1.0.1
- bantal dari 10.3.0 hingga 11.1.0
- plotly diperbarui dari versi 5.22.0 ke 5.24.1
- pluggy dari 1.0.0 hingga 1.5.0
- proto-plus dari 1.24.0 hingga 1.26.1
- protobuf dari 4.24.1 ke 5.29.4
- pyarrow dari 15.0.2 hingga 19.0.1
- pyccolo dari 0.0.65 hingga 0.0.71
- pydantic dari 2.8.2 ke 2.10.6
- pydantic_core dari 2.20.1 ke 2.27.2
- PyJWT dari 2.7.0 ke 2.10.1
- pyodbc dari 5.0.1 ke 5.2.0
- pyparsing dari 3.0.9 ke 3.2.0
- pyright dari 1.1.294 hingga 1.1.394
- python-lsp-server dari 1.10.0 ke 1.12.0
- PyYAML dari 6.0.1 ke 6.0.2
- pyzmq dari 25.1.2 ke 26.2.0
- permintaan dari 2.32.2 hingga 2.32.3
- rsa dari 4,9 ke 4.9.1
- s3transfer dari 0.10.2 ke 0.11.3
- scikit-learn dari 1.4.2 hingga 1.6.1
- scipy dari 1.13.1 ke 1.15.1
- sqlparse dari 0.5.1 hingga 0.5.3
- statsmodels dari 0.14.2 ke 0.14.4
- tenacity mulai dari 8.2.2 hingga 9.0.0
- threadpoolctl dari 2.2.0 ke 3.5.0
- tornado dari 6.4.1 ke 6.4.2
- typing_extensions dari 4.11.0 ke 4.12.2
- urllib3 dari 1.26.16 hingga 2.3.0
- virtualenv dari 20.26.2 hingga 20.29.3
- roda dari 0.43.0 hingga 0.45.1
- Wrapt diperbarui dari 1.14.1 ke 1.17.0
- yapf dari 0.33.0 hingga 0.40.2
- zipp dari 3.17.0 ke 3.21.0
Pustaka R yang ditingkatkan:
- panah dari 16.1.0 hingga 19.0.1
- askpass dari 1.2.0 ke 1.2.1
- dasar dari 4.4.0 ke 4.4.2
- bigD dari 0.2.0 hingga 0.3.0
- bit dari 4.0.5 ke 4.6.0
- bit64 dari 4.0.5 hingga 4.6.0-1
- bitops dari 1.0-8 ke 1.0-9
- broom dari 1.0.6 hingga 1.0.7
- bslib dari 0,8,0 ke 0,9,0
- caret dari 6,0-94 hingga 7,0-1
- chron dari 2.3-61 ke 2.3-62
- cli dari 3.6.3 ke 3.6.4
- jam dari 0.7.1 hingga 0.7.2
- commonmark dari 1.9.1 hingga 1.9.5
- compiler dari 4.4.0 ke 4.4.2
- cpp11 dari 0.4.7 hingga 0.5.2
- kredensial dari 2.0.1 hingga 2.0.2
- curl dari 5.2.1 ke 6.2.1
- data.table dari 1.15.4 hingga 1.17.0
- himpunan data dari 4.4.0 hingga 4.4.2
- digest dari 0.6.36 hingga 0.6.37
- e1071 dari 1,7-14 ke 1,7-16
- evaluasi dari 0.24.0 hingga 1.0.3
- fontawesome dari 0.5.2 hingga 0.5.3
- fs dari 1.6.4 ke 1.6.5
- future.apply dari 1.11.2 ke 1.11.3
- gert dari 2.1.0 hingga 2.1.4
- git2r dari 0.33.0 hingga 0.35.0
- lem dari 1.7.0 hingga 1.8.0
- Gower dari versi 1.0.1 ke versi 1.0.2
- grafik dari 4.4.0 hingga 4.4.2
- grDevices dari 4.4.0 hingga 4.4.2
- kisi dari 4.4.0 hingga 4.4.2
- gt dari 0.11.0 ke 0.11.1
- gtable dari versi 0.3.5 ke 0.3.6
- hardhat dari 1.4.0 hingga 1.4.1
- httr2 dari 1.0.2 hingga 1.1.1
- jsonlite dari 1.8.8 hingga 1.9.1
- knitr dari 1.48 hingga 1.50
- kemudian dari 1.3.2 hingga 1.4.1
- lava dari 1.8.0 hingga 1.8.1
- lubridat dari 1.9.3 hingga 1.9.4
- metode dari 4.4.0 hingga 4.4.2
- mime dari 0,12 hingga 0,13
- mlflow dari 2.14.1 ke 2.20.4
- nlme dari 3,1-165 ke 3,1-164
- openssl dari 2.2.0 ke 2.3.2
- paralel dari 4.4.0 hingga 4.4.2
- secara paralel dari 1.38.0 hingga 1.42.0
- pilar dari 1.9.0 hingga 1.10.1
- pkgbuild dari 1.4.4 ke 1.4.6
- pkgdown dari 2.1.0 ke 2.1.1
- processx dari 3.8.4 hingga 3.8.6
- profvis dari 0.3.8 hingga 0.4.0
- Pembaruan progressr dari versi 0.14.0 ke versi 0.15.1
- janji dari 1.3.0 ke 1.3.2
- ps dari 1.7.7 ke 1.9.0
- purrr dari 1.0.2 hingga 1.0.4
- R6 dari 2.5.1 ke 2.6.1
- ragg dari 1.3.2 ke 1.3.3
- randomForest dari 4.7-1.1 ke 4.7-1.2
- Rcpp dari 1.0.13 ke 1.0.14
- RcppEigen dari 0.3.4.0.0 ke 0.3.4.0.2
- reactR dari 0.6.0 hingga 0.6.1
- readxl dari 1.4.3 ke 1.4.5
- resep dari 1.1.0 hingga 1.2.0
- rlang dari 1.1.4 ke 1.1.5
- rmarkdown dari 2,27 ke 2,29
- RODBC dari 1,3-23 ke 1,3-26
- Rserve dari 1,8-13 ke 1,8-15
- RSQLite dari 2.3.7 ke 2.3.9
- rstudioapi dari 0.16.0 ke 0.17.1
- sessioninfo dari 1.2.2 hingga 1.2.3
- mengkilap dari 1.9.1 hingga 1.10.0
- sparklyr dari 1.8.6 ke 1.9.0
- SparkR dari 3.5.2 ke 4.0.0
- spline dari 4.4.0 hingga 4.4.2
- statistik dari 4.4.0 hingga 4.4.2
- Pembaruan versi stats4 dari 4.4.0 ke 4.4.2
- bertahan hidup dari 3,6-4 hingga 3,5-8
- sys dari 3.4.2 hingga 3.4.3
- systemfonts dari 1.1.0 hingga 1.2.1
- tcltk dari 4.4.0 ke 4.4.2
- testthat dari 3.2.1.1 ke 3.2.3
- textshaping dari 0.4.0 ke 1.0.0
- timeDate dari 4032.109 hingga 4041.110
- tinytex dari 0,52 hingga 0,56
- alat dari 4.4.0 hingga 4.4.2
- tzdb dari 0,4,0 hingga 0,5,0
- usethis dari 3.0.0 hingga 3.1.0
- utils dari 4.4.0 ke 4.4.2
- V8 dari 4.4.2 hingga 6.0.2
- waldo dari 0.5.2 hingga 0.6.1
- withr dari 3.0.1 ke 3.0.2
- xfun dari 0,46 hingga 0,51
- xml2 dari 1.3.6 hingga 1.3.8
- zip dari 2.3.1 ke 2.3.2
Pustaka Java yang ditingkatkan:
- com.clearspring.analytics.stream dari 2.9.6 ke 2.9.8
- com.esotericsoftware.kryo-shaded dari 4.0.2 ke 4.0.3
- com.fasterxml.classmate dari 1.3.4 ke 1.5.1
- com.fasterxml.jackson.core.jackson-annotations dari 2.15.2 hingga 2.18.2
- com.fasterxml.jackson.core.jackson-core dari 2.15.2 ke 2.18.2
- com.fasterxml.jackson.core.jackson-databind dari 2.15.2 ke 2.18.2
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor dari 2.15.2 hingga 2.18.2
- com.fasterxml.jackson.datatype.jackson-datatype-joda dari 2.15.2 hingga 2.18.2
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 dari 2.16.0 hingga 2.18.2
- com.fasterxml.jackson.module.jackson-module-paranamer dari 2.15.2 hingga 2.18.2
- com.github.luben.zstd-jni dari 1.5.5-4 ke 1.5.6-10
- com.google.code.gson.gson dari 2.10.1 ke 2.11.0
- com.google.crypto.tink.tink dari 1.9.0 hingga 1.16.0
- com.google.errorprone.error_prone_annotations dari 2.10.0 hingga 2.36.0
- com.google.flatbuffers.flatbuffers-java dari 23.5.26 hingga 24.3.25
- com.google.guava.guava dari 15.0 ke 33.4.0-jre
- com.google.protobuf.protobuf-java dari 3.25.1 ke 3.25.5
- com.microsoft.azure.azure-data-lake-store-sdk dari 2.3.9 hingga 2.3.10
- com.microsoft.sqlserver.mssql-jdbc dari 11.2.3.jre8 ke 12.8.0.jre8
- commons-cli.commons-cli dari versi 1.5.0 hingga 1.9.0
- commons-codec.commons-codec dari 1.16.0 hingga 1.17.2
- commons-io.commons-io mulai dari 2.13.0 hingga 2.18.0
- io.airlift.aircompressor dari 0.27 hingga 2.0.2
- io.dropwizard.metrics.metrics-annotation dari 4.2.19 hingga 4.2.30
- io.dropwizard.metrics.metrics-core dari 4.2.19 menjadi 4.2.30
- io.dropwizard.metrics.metrics-graphite dari 4.2.19 hingga 4.2.30
- io.dropwizard.metrics.metrics-healthchecks dari 4.2.19 hingga 4.2.30
- io.dropwizard.metrics.metrics-jetty9 dari 4.2.19 menjadi 4.2.30
- io.dropwizard.metrics.metrics-jmx dari 4.2.19 ke 4.2.30
- io.dropwizard.metrics.metrics-json dari 4.2.19 ke 4.2.30
- io.dropwizard.metrics.metrics-jvm dari 4.2.19 ke 4.2.30
- io.dropwizard.metrics.metrics-servlets dari 4.2.19 hingga 4.2.30
- io.netty.netty-all diperbarui dari 4.1.108.Final menjadi 4.1.118.Final
- io.netty.netty-buffer dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-codec dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-codec-http dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-codec-http2 dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-codec-socks dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-common dari 4.1.108.Final hingga 4.1.118.Final
- io.netty.netty-handler dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-handler-proxy dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-resolver dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-tcnative-boringssl-static dari 2.0.61.Final-db-r16-windows-x86_64 ke 2.0.70.Final-db-r0-windows-x86_64
- io.netty.netty-tcnative-classes dari versi 2.0.61.Final ke 2.0.70.Final
- io.netty.netty-transport dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-transport-classes-epoll dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-transport-classes-kqueue dari 4.1.108.Final ke 4.1.118.Final
- io.netty.netty-transport-native-epoll dari 4.1.108.Final-linux-x86_64 ke 4.1.118.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue dari 4.1.108.Final-osx-x86_64 ke 4.1.118.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common dari 4.1.108.Final ke 4.1.118.Final
- io.prometheus.jmx.collector dari 0.12.0 hingga 0.18.0
- io.prometheus.simpleclient dari 0.7.0 hingga 0.16.1-databricks
- io.prometheus.simpleclient_common dari 0.7.0 hingga 0.16.1-databricks
- io.prometheus.simpleclient_dropwizard dari 0.7.0 hingga 0.16.1-databricks
- io.prometheus.simpleclient_pushgateway dari 0.7.0 hingga 0.16.1-databricks
- io.prometheus.simpleclient_servlet dari 0.7.0 hingga 0.16.1-databricks
- joda-time.joda-time dari 2.12.1 hingga 2.13.0
- net.razorvine.pickle dari 1.3 hingga 1.5
- org.antlr.antlr4-runtime dari 4.9.3 hingga 4.13.1
- org.apache.arrow.arrow-format dari 15.0.0 hingga 18.2.0
- org.apache.arrow.arrow-memory-core dari 15.0.0 hingga 18.2.0
- org.apache.arrow.arrow-memory-netty dari 15.0.0 ke 18.2.0
- org.apache.arrow.arrow-vector dari 15.0.0 hingga 18.2.0
- org.apache.avro.avro dari 1.11.4 ke 1.12.0
- org.apache.avro.avro-ipc dari 1.11.4 hingga 1.12.0
- org.apache.avro.avro-mapred dari 1.11.4 ke 1.12.0
- org.apache.commons.commons-compress dari 1.23.0 hingga 1.27.1
- org.apache.commons.commons-lang3 dari 3.12.0 hingga 3.17.0
- org.apache.commons.commons-text dari 1.10.0 hingga 1.13.0
- org.apache.curator.curator-client dari 2.13.0 hingga 5.7.1
- org.apache.curator.curator-framework dari 2.13.0 hingga 5.7.1
- org.apache.curator.curator-recipes dari 2.13.0 hingga 5.7.1
- org.apache.datasketches.datasketches-java dari 3.1.0 hingga 6.1.1
- org.apache.datasketches.datasketches-memory dari 2.0.0 ke 3.0.2
- org.apache.hadoop.hadoop-client-runtime dari 3.3.6 hingga 3.4.1
- org.apache.hive.hive-beeline dari versi 2.3.9 ke versi 2.3.10
- org.apache.hive.hive-cli dari 2.3.9 ke 2.3.10
- org.apache.hive.hive-jdbc dari 2.3.9 ke 2.3.10
- org.apache.hive.hive-llap-client dari 2.3.9 hingga 2.3.10
- org.apache.hive.hive-llap-common dari 2.3.9 hingga 2.3.10
- org.apache.hive.hive-serde dari 2.3.9 ke 2.3.10
- org.apache.hive.hive-shims dari 2.3.9 ke 2.3.10
- org.apache.hive.shims.hive-shims-0.23 dari 2.3.9 hingga 2.3.10
- org.apache.hive.shims.hive-shims-common dari 2.3.9 hingga 2.3.10
- org.apache.hive.shims.hive-shims-scheduler dari 2.3.9 hingga 2.3.10
- org.apache.ivy.ivy dari 2.5.2 ke 2.5.3
- org.apache.logging.log4j.log4j-1.2-api dari 2.22.1 ke 2.24.3
- org.apache.logging.log4j.log4j-api dari 2.22.1 ke 2.24.3
- org.apache.logging.log4j.log4j-core dari 2.22.1 ke 2.24.3
- org.apache.logging.log4j.log4j-layout-template-json dari 2.22.1 hingga 2.24.3
- org.apache.logging.log4j.log4j-slf4j2-impl dari 2.22.1 ke 2.24.3
- org.apache.orc.orc-core dari 1.9.2-shaded-protobuf ke 2.1.1-shaded-protobuf
- org.apache.orc.orc-mapreduce dari 1.9.2-shaded-protobuf ke 2.1.1-shaded-protobuf
- org.apache.orc.orc-shims dari 1.9.2 hingga 2.1.1
- org.apache.thrift.libthrift dari 0.12.0 ke 0.16.0
- org.apache.ws.xmlschema.xmlschema-core dari 2.3.0 hingga 2.3.1
- org.apache.xbean.xbean-asm9-shaded dari 4.23 hingga 4.26
- org.apache.zookeeper.zookeeper dari 3.9.2 hingga 3.9.3
- org.apache.zookeeper.zookeeper-jute dari 3.9.2 hingga 3.9.3
- org.checkerframework.checker-qual dari 3.31.0 hingga 3.43.0
- org.eclipse.jetty.jetty-client dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.jetty-continuation dari 9.4.52.v20230823 menjadi 9.4.53.v20231009
- org.eclipse.jetty.jetty-http dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.jetty-io dari 9.4.52.v20230823 menjadi 9.4.53.v20231009
- org.eclipse.jetty.jetty-jndi dari 9.4.52.v20230823 menjadi 9.4.53.v20231009
- org.eclipse.jetty.jetty-plus dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.jetty-proxy dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.jetty-security dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.jetty-server dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.jetty-servlet dari 9.4.52.v20230823 menjadi 9.4.53.v20231009
- org.eclipse.jetty.jetty-servlets dari 9.4.52.v20230823 ke 9.4.53.v20231009
- org.eclipse.jetty.jetty-util dari 9.4.52.v20230823 menjadi 9.4.53.v20231009
- org.eclipse.jetty.jetty-util-ajax dari 9.4.52.v20230823 menjadi 9.4.53.v20231009
- org.eclipse.jetty.jetty-webapp dari 9.4.52.v20230823 ke 9.4.53.v20231009
- org.eclipse.jetty.jetty-xml dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-api dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-client dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-common dari 9.4.52.v20230823 hingga 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-server dari 9.4.52.v20230823 ke 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-servlet dari 9.4.52.v20230823 ke 9.4.53.v20231009
- org.glassfish.jersey.containers.jersey-container-servlet dari versi 2.40 hingga 2.41
- org.glassfish.jersey.containers.jersey-container-servlet-core dari 2.40 hingga 2.41
- org.glassfish.jersey.core.jersey-client dari 2.40 hingga 2.41
- org.glassfish.jersey.core.jersey-common dari 2.40 hingga 2.41
- org.glassfish.jersey.core.jersey-server dari 2.40 hingga 2.41
- org.glassfish.jersey.inject.jersey-hk2 dari 2.40 hingga 2.41
- org.hibernate.validator.hibernate-validator dari 6.1.7.Final ke 6.2.5.Final
- org.jboss.logging.jboss-logging dari versi 3.3.2.Final ke versi 3.4.1.Final
- org.objenesis.objenesis dari 2.5.1 ke 3.3
- org.roaringbitmap.RoaringBitmap dari 0.9.45-databricks ke 1.2.1
- org.rocksdb.rocksdbjni dari 9.2.1 hingga 9.8.4
- org.scalatest.scalatest-compatible dari 3.2.16 hingga 3.2.19
- org.slf4j.jcl-over-slf4j dari 2.0.7 hingga 2.0.16
- org.slf4j.jul-to-slf4j dari 2.0.7 hingga 2.0.16
- org.slf4j.slf4j-api dari 2.0.7 hingga 2.0.16
- org.threeten.threeten-extra dari 1.7.1 ke 1.8.0
- org.tukaani.xz dari 1.9 hingga 1.10
Apache Spark
Banyak fiturnya sudah tersedia di Databricks Runtime 14.x, 15.x, dan 16.x, dan sekarang fitur tersebut sudah termasuk secara default di Runtime 17.0.
- SPARK-52311 Tentukan ulang output UnionLoop untuk tidak diduplikasi jika output jangkar diduplikasi
- SPARK-50104 Mendukung SparkSession.executeCommand di Connect
- SPARK-51085 Pulihkan SQLContext Companion
- SPARK-49698 Tambahkan anotasi ClassicOnly untuk metode klasik saja.
- SPARK-52026 Blokir API panda pada Spark pada mode ANSI secara default
-
SPARK-43415 Menerapkan
KVGDS.aggdengan fungsi kustommapValues - SPARK-50979 Menghapus implisit .expr/.typedExpr
- SPARK-49961 Tanda tangan jenis transformasi yang benar untuk Scala dan Java
- SPARK-51012 Hapus SparkStrategy dari Connect Shims.
-
SPARK-50915 Menambahkan
getConditiondan menghentikangetErrorClasspenggunaanPySparkException - SPARK-51821 Memanggil fungsi interrupt() tanpa memegang uninterruptibleLock untuk menghindari kemungkinan kebuntuan
- SPARK-52192 Pemeriksaan jalur pemuatan MLCache
- SPARK-52122 Memperbaiki kerentanan RCE DefaultParamsReader
- SPARK-52191 Menghapus deserializer Java pada pemuat jalur lokal model
- SPARK-52051 Backport "Aktifkan ringkasan model saat kontrol memori diaktifkan" dan "Perbaiki pesan kesalahan, dan sembunyikan konfigurasi internal Spark" ke Databricks Runtime 17.0.0
-
SPARK-51391 Perbaikan
SparkConnectClientuntuk menghormatiSPARK_USERdanuser.name - SPARK-51416 Menghapus SPARK_CONNECT_MODE saat memulai server Spark Connect
- SPARK-51156 Dukungan autentikasi token statis di Spark Connect
- SPARK-51279 Hindari tidur konstan untuk menunggu server Spark Connect di Scala
- SPARK-51254 Larang penggunaan --master dengan URL Spark Connect
- SPARK-51267 Cocokkan logika server Spark Connect lokal antara Python dan Scala
- SPARK-51212 Menambahkan paket PySpark terpisah untuk Spark Connect secara default
- SPARK-52017 Mengaktifkan beberapa referensi mandiri dan referensi mandiri dari Subkueri di dalam rCTEs
- SPARK-52035 Memisahkan LinearRegressionTrainingSummary dan LinearRegressionModel
- SPARK-50511 Hindari membungkus pesan kesalahan sumber data Python
- SPARK-51974 Membatasi ukuran model dan ukuran cache model per sesi
- SPARK-51947 Pemindahan cache model Spark connect
- SPARK-49751 Memperbaiki deserialisasi peristiwa SparkListenerConnectServiceStarted
- SPARK-47952 Mendukung mengambil alamat dan port SparkConnectService GRPC secara nyata melalui pemrograman saat berjalan di Yarn.
- SPARK-47587 Modul Apache Hive: Memigrasikan logWarn dengan variabel ke kerangka kerja pengelogan terstruktur
- SPARK-50768 Memperkenalkan TaskContext.createResourceUninterruptibly untuk menghindari kebocoran stream akibat gangguan tugas
- SPARK-51818 Memindahkan pembuatan QueryExecution ke AnalyzeHandler dan jangan Jalankan untuk AnalyzePlanRequests
- SPARK-51609 Mengoptimalkan eksekusi CTE Rekursif untuk kueri sederhana
-
SPARK-49748 Menambahkan
getConditiondan mendepresiasigetErrorClassdiSparkThrowable - SPARK-51867 Membuat model scala yang mendukung metode simpan / muat terhadap jalur sistem file lokal
- SPARK-51856 Memperbarui API ukuran model untuk menghitung ukuran DataFrame terdistribusi
- SPARK-51941 Perbaiki masalah presisi untuk convertToCatalyst saat Input adalah BigDecimal antara -1.0 dan 1.0
- SPARK-50605 Mendukung mode SQL API untuk migrasi yang lebih mudah ke Spark Connect
-
SPARK-51849 Pemfaktoran ulang
ResolveDDLCommandStringTypes - SPARK-51673 Menerapkan kolase default untuk mengubah kueri tampilan
- SPARK-51880 Memperbaiki referensi klien Python pada objek cache ML
- SPARK-51873 Untuk algoritma OneVsRest, izinkan menggunakan simpan / muat untuk mengganti cache
- SPARK-51072 CallerContext untuk mengatur konteks audit cloud Hadoop
- SPARK-51790 Mendaftarkan UTF8String ke KryoSerializer
-
SPARK-51022 Hapus yang tidak digunakan
tableSampleClausedalambuild()metodeMsSqlServerSQLQueryBuilderdanDB2SQLQueryBuilder -
SPARK-51219 Memperbaiki
ShowTablesExec.isTempViewuntuk bekerja dengan yang bukan katalogV2SessionCatalog - SPARK-49700 Antarmuka Scala Terpadu untuk Connect dan Classic
- SPARK-50458 Penanganan kesalahan yang tepat untuk sistem file yang tidak didukung saat membaca file
- SPARK-50666 Petunjuk bantuan untuk membaca dari sumber data JDBC
- SPARK-50131 Terapkan kembali "Tambahkan DataFram Subkueri IN..."
- SPARK-51899 Menerapkan aturan penanganan kesalahan untuk spark.catalog.listTables()
-
SPARK-51820 Menangani permasalahan yang tersisa terkait yang baru
group/orderdengan pendekatan ordinal -
SPARK-48585 Buat
built-inmetodeclassifyExceptionJdbcDialect membuangoriginalpengecualian - SPARK-48387 Postgres: Petakan TimestampType ke TIMESTAMP DENGAN ZONA WAKTU
- SPARK-51820 Pindahkan konstruksi sebelum analisis untuk menghindari masalah dengan pengelompokan berdasarkan ordinal
- SPARK-48337 Memperbaiki kehilangan presisi untuk nilai JDBC TIME
- SPARK-51711 Menyebarkan sesi Spark jarak jauh aktif ke utas eksekusi baru untuk memperbaiki CrossValidator
- SPARK-47515 Simpan TimestampNTZType sebagai DATETIME di MySQL
- SPARK-48439 Derby: Menghitung presisi dan skala yang sesuai untuk jenis Desimal
- SPARK-51820 Menyiapkan logika redaksi untuk SPARK-51820 codesync
- SPARK-48323 DB2: Petakan BooleanType ke BOOLEAN alih-alih CHAR(1)
- SPARK-51635 Gabungkan PushProjectionThroughLimit dan PushProjectionThroughOffset
- SPARK-48211 DB2: Baca SMALLINT sebagai ShortType
- SPARK-51803 Simpan tipe JDBC dari mesin eksternal ke dalam metadata StructField
-
SPARK-51845 Menambahkan pesan proto
CleanCachedanGetCacheInfo - SPARK-49511 Menerapkan aturan pemformatan ke sql/api
- SPARK-47968 MsSQLServer: Memetakan datatimeoffset ke TimestampType
- SPARK-51726 Gunakan TableInfo untuk Stage CREATE/REPLACE/CREATE OR REPLACE table
-
SPARK-47967 Membuat
JdbcUtils.makeGettermenangani tipe waktu pembacaan sebagai NTZ dengan benar - SPARK-47989 MsSQLServer: Memperbaiki cakupan spark.sql.legacy.mssqlserver.numericMapping.enabled
- SPARK-51193 Tingkatkan Netty ke 4.1.118.Final dan netty-tcnative ke 2.0.70.Final
- SPARK-47882 createTableColumnTypes perlu dipetakan ke jenis database alih-alih menggunakan langsung
- SPARK-47879 Oracle: Gunakan VARCHAR2 alih-alih VARCHAR untuk pemetaan VarcharType
- SPARK-51372 Memperkenalkan TableInfo untuk pembuatan tabel
- SPARK-47791 Memotong melebihi desimal dengan skala terlebih dahulu alih-alih presisi dari sumber data JDBC
-
SPARK-51404 Memparsing
time(n)tipe sebagaiTimeType(n) -
SPARK-50350 Avro: tambahkan fungsi
schema_of_avrobaru (scalasisi) -
SPARK-51136 Atur
CallerContextuntuk Server Riwayat -
SPARK-50641 Pindah
GetJsonObjectEvaluatorkeJsonExpressionEvalUtils -
SPARK-50083 Mengintegrasikan
_LEGACY_ERROR_TEMP_1231ke dalamPARTITIONS_NOT_FOUND -
SPARK-51556
try_to_timeMenambahkan fungsi - SPARK-47684 Postgres: Memetakan panjang tipe bpchar yang tidak ditentukan ke StringType
- SPARK-48688 Mengembalikan kesalahan yang wajar saat memanggil fungsi SQL to_avro dan from_avro tetapi Avro tidak dimuat secara default
- SPARK-49839 SPJ: Lewati pengocokan jika memungkinkan untuk pengurutan
- SPARK-45534 Gunakan java.lang.ref.Cleaner alih-alih finalize untuk RemoteBlockPushResolver
-
SPARK-51816 Menyederhanakan
StatFunctions.multipleApproxQuantilesdengan API dataframe - SPARK-49179 Memperbaiki masalah penggabungan internal multi-bucketed v2 yang memicu AssertionError
- SPARK-47456 Dukungan untuk codec ORC Brotli
- SPARK-51542 Menambahkan tombol gulir untuk menggulir ke bagian atas dan bawah
-
SPARK-51541 Mendukung jenis data
TIMEdalam metodeLiteral - SPARK-51615 Memfaktorkan ulang ShowNamespaces untuk menggunakan RunnableCommand
- SPARK-51191 Memvalidasi penanganan nilai default di DELETE, UPDATE, MERGE
-
SPARK-51829 Sisi klien harus diperbarui
client.thread_local.ml_cachessetelah penghapusan - SPARK-51358 Memperkenalkan deteksi jeda pengunggahan rekam jepret melalui StateStoreCoordinator
- SPARK-51686 Hubungkan ID eksekusi untuk sub-eksekusi pada eksekusi saat ini jika ada
-
SPARK-51456
to_timeMenambahkan fungsi - SPARK-51773 Ubah format file menjadi kelas kasus untuk membandingkannya dengan benar
- SPARK-51777 Mendaftarkan kelas sql.columnar.* ke KryoSerializer
- SPARK-51432 Melemparkan pengecualian yang tepat ketika skema Arrow tidak cocok
- SPARK-51395 Memperbaiki penanganan nilai default dalam prosedur
- SPARK-50582 Menambahkan fungsi bawaan 'quote'
- SPARK-51684 Memperbaiki kegagalan pengujian di test_pandas_transform_with_state
- SPARK-51213 Pertahankan info kelas Ekspresi saat menyelesaikan parameter indikasi
- SPARK-51651 Hubungkan ID eksekusi utama dengan eksekusi saat ini jika ada
- SPARK-50947 Tetapkan kelas kesalahan yang sesuai dan SparkException untuk artefak duplikat
- SPARK-51574 Serialisasi filter untuk dorongan filter pada Sumber Data di Python
- SPARK-51608 Mencatat pengecualian saat penghentian runner Python
-
SPARK-51266 Menghapus definisi yang tidak digunakan
private[spark] object TaskDetailsClassNames - SPARK-51011 Menambahkan pengelogan untuk apakah tugas akan terganggu saat dimatikan
- SPARK-49646 Menambahkan konfigurasi Spark untuk memperbaiki dekorelasi subkueri
- SPARK-51107 Memperbarui CommandBuilderUtils#join untuk menggunakan kembali kode dan mengurangi redundansi
- SPARK-51758 Memperbaiki kasus pengujian yang terkait dengan batch tambahan yang menyebabkan df kosong karena marka air
- SPARK-51664 Mendukung jenis data TIME dalam ekspresi Hash
- SPARK-51819 Memperbarui modul pengujian pyspark-errors untuk menyertakan pengujian yang hilang
-
SPARK-50751 Menetapkan kondisi kesalahan yang sesuai untuk
_LEGACY_ERROR_TEMP_1305 -
SPARK-50973 Membersihkan penggunaan api yang sudah usang terkait dengan
avro.Schema#toString(boolean) -
SPARK-50908 Nonaktifkan pengujian TTL flaky di
test_pandas_transform_with_state.py - SPARK-50811 Dukungan mengaktifkan profiler JVM pada driver
- SPARK-50808 Memperbaiki isu dalam writeAll dengan tipe data campuran yang tidak ditulis dengan benar
- SPARK-51780 Mengimplementasikan Prosedur Deskripsi
-
SPARK-50370 Dukungan Codegen untuk
json_tuple - SPARK-50756 Menggunakan kelas kesalahan untuk pengecualian di SparkConf.validateSettings
-
SPARK-50805 Pindahkan metode
nameForAppAndAttemptkeo.a.s.u.Utils -
SPARK-51812 Menghapus parameter redundan dari beberapa metode di
QueryExecution - SPARK-50819 Pengubahan modul profiler Spark
- SPARK-51547 Tetapkan nama ke kondisi kesalahan: _LEGACY_ERROR_TEMP_2130
- SPARK-48538 Hindari kebocoran memori HMS yang disebabkan oleh bonecp
-
SPARK-51176 Mencapai konsistensi untuk kesalahan tak terduga PySpark Connect
<>Classic - SPARK-50773 Nonaktifkan pengelogan terstruktur secara default
- SPARK-50616 Tambahkan Opsi Ekstensi File ke CSV DataSource Writer
- SPARK-50624 Menambahkan TimestampNTZType ke ColumnarRow/MutableColumnarRow
- SPARK-51590 Menonaktifkan TIME di sumber data berbasis file bawaan
- SPARK-49886 Uji kegagalan tingkat kueri untuk format rocksDB V2
- SPARK-50823 Meningkatkan cloudpickle dari 3.1.0 ke 3.1.1
-
SPARK-50780 Gunakan
overrideStdFeaturesalih-alihsetFeatureMaskdiJacksonParser - SPARK-50621 Tingkatkan Cloudpickle ke 3.1.0
-
SPARK-50719 Dukungan
interruptOperationuntuk PySpark -
SPARK-50545
AccessControlExceptionharus dilemparkan bahkan jikaignoreCorruptFilesdiaktifkan - SPARK-51517 Mendukung jenis data TIME dalam hasil Hive
- SPARK-47856 Pemetaan Dokumen Tipe Data Spark SQL dari Oracle dan tambahkan pengujian
-
SPARK-46066 Gunakan API Pemisah alih-alih STRING API untuk membangun
DefaultPrettyPrinter -
SPARK-50718 Dukungan
addArtifact(s)untuk PySpark - SPARK-51497 Menambahkan pemformat waktu default
- SPARK-51488 Mendukung kata kunci TIME sebagai jenis data
- SPARK-51273 Prosedur Panggilan Spark Connect menjalankan prosedur dua kali
- SPARK-51092 Lewati pengujian FlatMapGroupsWithState v1 yang memiliki batas waktu pada platform big endian
- SPARK-50606 Perbaiki NPE pada SessionHolder yang belum diinisiasi
- SPARK-49530 Mendukung subplot diagram lingkaran dalam plot pyspark
- SPARK-50357 Mendukung Interupsi API (Tag|Semua) untuk PySpark
- SPARK-51290 Mengaktifkan pengisian nilai default dalam penulisan DSv2
- SPARK-50485 Menangani SparkThrowable dalam (Unchecked)ExecutionException yang dilemparkan oleh tableRelationCache
- SPARK-51513 Memperbaiki aturan RewriteMergeIntoTable menghasilkan rencana yang tidak terselesaikan
- SPARK-51482 Dukungan konversi dari string ke waktu
- SPARK-51462 Mendukung literal yang ditik dari jenis data TIME
- SPARK-51454 Dukungan konversi dari tipe data waktu ke string
-
SPARK-51447 Tambahkan
stringToTimedanstringToTimeAnsi - SPARK-51775 Menormalkan LogicalRelation dan HiveTableRelation oleh NormalizePlan
-
SPARK-51791
ImputerModelmenyimpan koefisien dengan array alih-alih dataframe - SPARK-51442 Menambahkan pemformat waktu
-
SPARK-51384 Mendukung
java.time.LocalTimesebagai tipe eksternal dariTimeType - SPARK-51747 Rencana cache sumber data harus menghormati opsi
- SPARK-51774 Menambahkan kode Status GRPC ke Pengecualian GRPC Python Connect
- SPARK-51660 Menangani dengan baik ketika MDC tidak didukung
- SPARK-51296 Mendukung pengumpulan data yang rusak dalam mode singleVariantColumn.
- SPARK-45907 Menggunakan API ProcessHandle Java9+ untuk computeProcessTree di ProcfsMetricsGetter
-
SPARK-51342 Tambah
TimeType - SPARK-51769 Menambahkan maxRecordsPerOutputBatch untuk membatasi jumlah rekaman batch output Arrow
- SPARK-51350 Menerapkan Prosedur Peragaan
- SPARK-51711 Kebijakan pengeluaran MLCache berbasis memori
-
SPARK-51178 Munculkan kesalahan PySpark yang tepat alih-alih
SparkConnectGrpcException - SPARK-51738 Subkueri IN dengan tipe struktur
- SPARK-51714 Tambahkan uji Kegagalan Penyerapan untuk menguji format titik pemeriksaan penyimpanan status V2
- SPARK-51704 Menghilangkan operasi pengumpulan yang tidak perlu
- SPARK-51512 Menyaring MapStatus kosong saat membersihkan data shuffle dengan ExternalShuffleService
- SPARK-49308 Menyediakan Dukungan untuk UserDefinedAggregateFunction di Klien Spark Connect Scala
- SPARK-50091 Mengatasi kasus agregat dalam operand sebelah kiri subkueri IN
- SPARK-50265 Dukungan untuk spark.udf.registerJavaUdf di Connect
- SPARK-49273 Dukungan asal untuk klien Spark Connect Scala
- SPARK-51187 Menerapkan penghentian bertahap konfigurasi yang salah yang diperkenalkan di SPARK-49699
- SPARK-51650 Mendukung penghapusan objek cache ml dalam batch
- SPARK-51619 Mendukung input/output UDT dalam UDF Python yang dioptimalkan dengan Arrow
-
SPARK-51333 Unwrap
InvocationTargetExceptiondilemparkan ke dalamMLUtils.loadOperator - SPARK-51566 Peningkatan jejak balik UDF Python
- SPARK-51393 Kembali menggunakan UDF Python reguler ketika Arrow tidak ditemukan tetapi UDF Python yang dioptimalkan dengan Arrow diaktifkan
- SPARK-49960 Dukungan ExpressionEncoder Kustom dan perbaikan TransformingEncoder
- SPARK-51380 Tambahkan visitSQLFunction dan visitAggregateFunction untuk meningkatkan fleksibilitas V2ExpressionSQLBuilder
-
SPARK-51600 Menambahkan kelas ke depan dari
sql/hivedansql/hive-thriftserverketikaisTesting || isTestingSqlbenar -
SPARK-51070 Gunakan
scala.collection.Setalih-alih Atur di ValidateExternalType - SPARK-50759 Menghentikan beberapa API Katalog warisan
- SPARK-50994 Melakukan konversi RDD dalam eksekusi yang terlacak
- SPARK-51466 Menghilangkan inisialisasi UDF bawaan Hive pada evaluasi UDF di Apache Hive.
- SPARK-51491 Menyederhanakan boxplot dengan API subkueri
-
SPARK-51175 Buat
Mastermenunjukkan waktu yang sudah berlalu ketika menghapus driver - SPARK-50334 Mengekstrak logika umum untuk membaca deskriptor file PB
- SPARK-50483 BlockMissingException harus dilemparkan bahkan jika ignoreCorruptFiles diaktifkan
- SPARK-50286 Menyebarkan opsi SQL dengan benar ke WriteBuilder
- SPARK-51023 Mencatat alamat jarak jauh pada pengecualian RPC
- SPARK-47611 Membersihkan kode mati di MySQLDialect.getCatalystType
- SPARK-49229 Menghapus duplikasi penanganan Scala UDF dalam perencanaan SparkConnect
- SPARK-50557 Mendukung RuntimeConfig.contains(..) di Antarmuka Scala SQL
- SPARK-51471 RatePerMicroBatchStream - mengklasifikasikan kesalahan ASSERT ketika offset/tanda waktu di startOffset lebih besar dari endOffset
- SPARK-50473 Menyederhanakan penanganan Kolom klasik
- SPARK-49286 Memindahkan fungsi Avro/Protobuf ke sql/api
- SPARK-49087 Membedakan UnresolvedFunction yang memanggil fungsi internal
-
SPARK-50422 Menjadikan
Parameterized SQL queriesdariSparkSession.sqlAPI GA - SPARK-49249 PR Pendamping untuk "Menambahkan konfigurasi baru manajer artefak default di PySpark ke dalam daftar yang diizinkan"
- SPARK-50366 Mengisolasi tag yang ditentukan pengguna pada tingkat utas untuk SparkSession dalam mode Klasik
- SPARK-49436 Antarmuka umum untuk SQLContext
- SPARK-51551 Untuk algoritma penyetelan, izinkan penggunaan simpan/muat untuk mengganti cache
-
SPARK-51599 Optimalkan
ps.read_exceluntuk file excel besar - SPARK-51118 Perbaiki ExtractPythonUDFs untuk memeriksa tipe input UDF yang berantai untuk digunakan sebagai fallback
- SPARK-50395 Memperbaiki sintaks URI yang salah bentuk di Windows
-
SPARK-50708 Menghapus sumber daya Artefak pada GC
ArtifactManagerinstans - SPARK-51076 Fallback UDF Python Arrow untuk tipe input dan output UDT
- SPARK-50243 Classloader cache untuk ArtifactManager
- SPARK-49249 Isolasi artefak di Spark Classic
- SPARK-50821 Tingkatkan Py4J dari 0.10.9.8 ke 0.10.9.9
- SPARK-51591 Memperbaiki kegagalan ThreadPoolExecutor dalam pengujian harian python 3.13
-
SPARK-40353 Memperbaiki ketidakcocokan indeks yang dapat bernilai null di
ps.read_excel - SPARK-42746 Menerapkan fungsi LISTAGG
- SPARK-50102 Tambahkan shim yang diperlukan untuk metode SQL publik yang hilang.
- SPARK-50513 Pisahkan EncoderImplicits dari SQLImplicits dan berikan objek pembantu dalam StatefulProcessor
-
SPARK-51567 Perbaiki
DistributedLDAModel.vocabSize - SPARK-49569 Menambahkan shim untuk mendukung SparkContext dan RDD
- SPARK-51473 Kerangka data yang diubah ML menyimpan referensi ke model
- SPARK-51340 Estimasi ukuran model
- SPARK-51474 Jangan sisipkan ColumnarToRowExec yang tidak diperlukan untuk simpul yang mendukung output kolom dan baris.
-
SPARK-51445 Ubah yang belum pernah diubah
varmenjadival - SPARK-50618 Membuat DataFrameReader dan DataStreamReader memanfaatkan penganalisis lebih banyak
- SPARK-51097 Memperkenalkan kembali metrik instans versi rekam jepret terakhir penyimpanan status RocksDB yang diunggah
- SPARK-49418 Utas Sesi Bersama Lokal
-
SPARK-50096 Tetapkan kondisi kesalahan yang sesuai untuk
_LEGACY_ERROR_TEMP_2150:TUPLE_SIZE_EXCEEDS_LIMIT - SPARK-50264 Menambahkan metode yang hilang ke DataStreamWriter
- SPARK-49434 Memindahkan agregator ke sql/api
- SPARK-51451 Perbaiki ExtractGenerator untuk menunggu UnresolvedStarWithColumns diselesaikan
- SPARK-49416 Menambahkan antarmuka Shared DataStreamReader
- SPARK-49429 Menambahkan antarmuka Shared DataStreamWriter
- SPARK-49282 Buat antarmuka SparkSessionBuilder bersama.
- SPARK-49415 Pindahkan SQLImplicits ke sql/api
- SPARK-51443 Perbaiki singleVariantColumn di DSv2 dan readStream.
- SPARK-49369 Menambahkan konversi Kolom implisit
- SPARK-49417 Menambahkan antarmuka Shared StreamingQueryManager
- SPARK-51079 Mendukung tipe variabel besar dalam Pandas UDF, createDataFrame, dan toPandas dengan Arrow
- SPARK-51277 Menerapkan implementasi tanpa argumen pada Python UDF yang dioptimalkan menggunakan Arrow
- SPARK-50601 Dukungan dengan withColumns / withColumnsRenamed dalam subkueri
- SPARK-49479 Batalkan utas non-daemon Timer saat menghentikan BarrierCoordinator
- SPARK-51379 Memindahkan agregasi akhir treeAggregate dari driver ke eksekutor
- SPARK-49712 Menghapus encoderFor dari connect-client-jvm
- SPARK-49424 Mengonsolidasikan Encoders.scala
- SPARK-49574 Menonaktifkan tes berbagi delta yang mengalami kerusakan di master
- SPARK-51409 Menambahkan klasifikasi kesalahan di jalur pembuatan penulis changelog
- SPARK-49568 Menghapus self type dari Dataset
- SPARK-51433 Mengubah skrip rilis untuk merilis pyspark-client
- SPARK-51422 Menghilangkan pertukaran data JVM-Python di CrossValidator
-
SPARK-51425 Menambahkan API klien untuk mengatur kustom
operation_id - SPARK-49284 Membuat antarmuka Katalog bersama
- SPARK-50855 Dukungan Spark Connect untuk TransformWithState di Scala
- SPARK-50694 Mendukung penggantian nama dalam subkueri
- SPARK-50880 Menambahkan metode visitBinaryComparison baru ke V2ExpressionSQLBuilder
- SPARK-51282 Mengoptimalkan transformasi OneVsRestModel dengan menghilangkan pertukaran data JVM-Python
- SPARK-51079 Mendukung tipe variabel besar dalam Pandas UDF, createDataFrame, dan toPandas dengan Arrow
- SPARK-51383 Hindari melakukan panggilan RPC jika klien sudah diketahui telah berhenti
-
SPARK-51227 Perbaiki PySpark Connect
_minimum_grpc_versionke 1.67.0 - SPARK-51362 Ubah keJSON untuk menggunakan NextIterator API untuk menghilangkan dependensi rekaman yang berdekatan
-
SPARK-51375 Menyembunyikan
SparkConnect(Execution|Session)Manager.periodicMaintenancepesan log - SPARK-50393 Memperkenalkan TableArg umum untuk Spark Classic dan Spark Connect
- SPARK-50133 Mendukung konversi DataFrame menjadi argumen tabel di Klien Spark Connect Python
- SPARK-49574 ExpressionEncoder melacak AgnosticEncoder yang membuatnya
- SPARK-49422 Menambahkan groupByKey ke sql/api
-
SPARK-51381 Perlihatkan
Session IDdiSpark Connect Sessionhalaman - SPARK-51316 Izinkan batch Arrow dalam byte, bukan jumlah baris
- SPARK-50134 Mendukung API DataFrame untuk subkueri SCALAR dan EXISTS di Spark Connect
- SPARK-50392 Konversi DataFrame ke argumen tabel di Spark Classic
-
SPARK-50553 Lempar
InvalidPlanInputuntuk pesan paket yang tidak valid - SPARK-51322 Pesan kesalahan yang lebih baik untuk ekspresi subkueri streaming
- SPARK-51281 DataFrameWriterV2 harus menghormati opsi jalur
- SPARK-50856 Dukungan Spark Connect untuk TransformWithStateInPandas Di Python
-
SPARK-51333 Membuka yang dilemparkan oleh
InvocationTargetException - SPARK-50134 Mendukung DataFrame API untuk Gabung Lateral di Spark Connect
- SPARK-51083 Ubah JavaUtils agar tidak menelan InterruptedExceptions
- SPARK-49413 Membuat antarmuka RuntimeConfig bersama (tindak lanjut)
- SPARK-49413 Membuat antarmuka RuntimeConfig bersama
- SPARK-50993 Memindahkan nullDataSourceOption dari QueryCompilationErrors ke QueryExecutionErrors
-
SPARK-51329 Tambahkan
numFeaturesuntuk model pengklusteran -
SPARK-51305 Memperbaiki
SparkConnectPlanExecution.createObservedMetricsResponse - SPARK-51097 Menambahkan metrik instans penyimpanan status untuk versi rekam jepret terakhir yang diunggah di RocksDB
- SPARK-49425 Membuat DataFrameWriter terbagi
- SPARK-50655 Pindahkan pemetaan terkait keluarga kolom virtual ke lapisan basis data daripada encoder
- SPARK-48530 Dukungan untuk variabel lokal dalam SQL Scripting
- SPARK-51284 Memperbaiki eksekusi Skrip SQL untuk hasil kosong
- SPARK-49085 Menghapus casing khusus untuk fungsi Protobuf di Connect
- SPARK-50881 Gunakan skema cache jika memungkinkan dalam menyambungkan dataframe.py
- SPARK-51275 Penyebaran sesi dalam Python readwrite
- SPARK-51109 CTE dalam ekspresi subkueri sebagai kolom pengelompokan
- SPARK-50598 Tambahkan parameter untuk memungkinkan implementasi CTE rekursif di kemudian hari
- SPARK-51202 Memasukkan sesi pada penulis algoritma meta python
- SPARK-51215 Menambahkan fungsi pembantu untuk memanggil atribut model pembantu
-
SPARK-51214 Jangan terburu-buru menghapus model yang di-cache untuk
fit_transform - SPARK-51237 Menambahkan detail API untuk API pembantu transformWithState baru
-
SPARK-51192 Mengekspos
processWithoutResponseObserverForTestingdalamSparkConnectPlanner - SPARK-51217 Pembersihan pembantu konstruktor model ML
- SPARK-51218 Hindari penggunaan map/flatMap dalam NondeterministicExpressionCollection
- SPARK-50953 Menambahkan dukungan untuk jalur non-literal di VariantGet
- SPARK-50132 Menambahkan DATAFrame API untuk Gabungan Lateral
- SPARK-51190 Memperbaiki TreeEnsembleModel.treeWeights
- SPARK-50945 Dukung Summarizer dan SummaryBuilder di Connect
- SPARK-51142 Pembersihan ML protobufs
-
SPARK-51139 Menyempurnakan kelas kesalahan
MLAttributeNotAllowedException -
SPARK-51080 Perbaiki simpan/muat untuk
PowerIterationClustering - SPARK-51100 Ganti pembungkus transformator dengan hubungan atribut model pembantu
-
SPARK-51091 Perbaiki param default
StopWordsRemover -
SPARK-51089 Dukungan
VectorIndexerModel.categoryMapssaat menyambungkan - Dukungan untuk menimpa jalur model sisi klien pada algoritma meta
-
SPARK-50975 Dukungan
CountVectorizerModel.from_vocabularysaat menyambungkan -
SPARK-50958 Dukungan
Word2VecModel.findSynonymsArraysaat menyambungkan -
SPARK-50930 Dukungan
PowerIterationClusteringdi Connect - SPARK-51157 Menambahkan anotasi Scala yang hilang @varargs untuk API fungsi Scala
-
SPARK-51155 Buat
SparkContextperlihatkan total runtime setelah berhenti -
SPARK-51143 Sematkan
plotly<6.0.0dantorch<2.6.0 -
SPARK-50949 Memperkenalkan model pembantu untuk didukung
StringIndexModel.from_labels_xxx - SPARK-51131 Lempar pengecualian saat Skrip SQL ditemukan di dalam EXECUTE IMMEDIATE perintah
-
SPARK-51078 Perbaiki panggilan py4j di
StopWordsRemover -
SPARK-50944 Dukungan
KolmogorovSmirnovTestdi Connect - SPARK-50602 Perbaiki transpose untuk menampilkan pesan kesalahan yang tepat ketika kolom indeks yang tidak valid ditentukan
-
SPARK-50943 Dukungan
Correlationdi Connect - SPARK-50234 Meningkatkan pesan kesalahan dan menguji untuk mentransposisikan DataFrame API
-
SPARK-50942 Dukungan
ChiSquareTestdi Connect - SPARK-48353 Pengenalan mekanisme Penanganan Pengecualian dalam SQL Scripting
- SPARK-51043 Pencatatan pengguna yang rinci untuk Spark Connect foreachBatch
- SPARK-50799 Menyempurnakan docstring rlike, length, octet_length, bit_length, dan transformasi
- SPARK-51015 Mendukung RFormulaModel.toString pada Connect
- SPARK-50843 Dukungan mengembalikan model baru dari model yang sudah ada
-
SPARK-50969 Perbaiki
GaussianMixtureModel.gaussianssaat menyambungkan - SPARK-50899 Mendukung PrefixSpan saat menyambungkan
-
SPARK-51060 Dukungan
QuantileDiscretizerdi Connect - SPARK-50974 Menambahkan dukungan foldCol untuk CrossValidator saat menyambungkan
- SPARK-50922 Mendukung OneVsRest di Connect
- SPARK-50812 Menambahkan dukungan PolynomialExpansion
- SPARK-50923 Mendukung FMClassifier dan FMRegressor di Connect
- SPARK-50918 Refaktor baca/tulis untuk Pipeline
- SPARK-50938 Mendukung VectorSizeHint dan VectorSlicer di Connect
- SPARK-51005 Mendukung VectorIndexer dan ElementwiseProduct di Connect
- SPARK-51014 Mendukung RFormula saat menyambungkan
- SPARK-50941 Menambahkan dukungan untuk TrainValidationSplit
- SPARK-51004 Menambahkan dukungan untuk IndexString
- SPARK-51003 Dukungan untuk model LSH di Connect
- SPARK-50924 Mendukung AFTSurvivalRegression dan IsotonicRegression di Connect
- SPARK-50921 Dukungan untuk MultilayerPerceptronClassifier di Connect
-
SPARK-50995 Dukungan
clusterCentersuntuk KMeans dan BisectingKMeans - SPARK-50940 Menambahkan dukungan CrossValidator/CrossValidatorModel saat menyambungkan
-
SPARK-50929 Dukungan
LDAdi Connect - SPARK-50925 Dukungan untuk Regresi Linear Terumumkan di Connect
- SPARK-50988 Memperbaiki inkonsistensi uid untuk estimator dan model
- SPARK-50989 Mendukung NGram, Normalizer, dan Interaksi saat tersambung
-
SPARK-50937 Dukungan
Imputerdi Connect - SPARK-51049 Menaikkan Ambang Batas Vektor I/O S3A untuk Penggabungan Rentang
- SPARK-50812 Mendukung TargetEncoderModel pada Connect
- SPARK-50920 Mendukung NaiveBayes untuk Connect
- SPARK-50936 Mendukung HashingTF, IDF, dan FeatureHasher saat tersambung
- SPARK-50934 Mendukung CountVectorizer dan OneHotEncoder di Connect
- SPARK-49287 Memindahkan kelas streaming ke sql/api
- SPARK-50932 Dukungan Bucketizer di Connect
- SPARK-50933 Dukungan pada Feature Selectors di Connect
- SPARK-50931 Mendukung Binarizer saat tersambung
- SPARK-50935 Mendukung DCT saat tersambung
- SPARK-50963 Mendukung Tokenizer, SQLTransform dan StopWordsRemover di Connect
- SPARK-50928 Mendukung GaussianMixture di Connect
- SPARK-49383 Mendukung Transpose DataFrame API
- SPARK-50939 Mendukung Word2Vec di Connect
- SPARK-49249 Menambahkan API terkait tag baru di Connect ke Spark Core
- SPARK-50919 Mendukung LinearSVC saat tersambung
- SPARK-50883 Dukungan mengubah beberapa kolom dalam perintah yang sama
- SPARK-50918 Mendukung Alur saat menyambungkan
-
SPARK-50826 Refaktor proses penanganan
ALLOWED_ATTRIBUTES - SPARK-49427 Membuat antarmuka bersama untuk MergeIntoWriter
- SPARK-49414 Menambahkan antarmuka Shared DataFrameReader
- SPARK-50948 Menambahkan dukungan untuk StringIndexer/PCA di Connect
-
SPARK-50901 Dukungan Transformer
VectorAssembler - SPARK-50879 Mendukung pengukur penskalaan fitur di Connect
- SPARK-50130 Menambahkan API DataFrame untuk skalar dan subkueri yang ada
- SPARK-50075 Menambahkan API DataFrame untuk fungsi bernilai tabel
- SPARK-49426 Membuat antarmuka bersama untuk DataFrameWriterV2
-
SPARK-50898 Dukungan
FPGrowthsaat menyambungkan - SPARK-50844 Buat model dimuat oleh ServiceLoader ketika proses pemuatan
- SPARK-50884 Dukungan untuk fitur isLargerBetter di Evaluator
- SPARK-50959 Mengabaikan pengecualian JavaWrapper
- SPARK-50558 Memperkenalkan simpleString untuk ExpressionSet
- SPARK-49422 Membuat antarmuka bersama untuk KeyValueGroupedDataset
- SPARK-50878 Mendukung ALS di Connect
- SPARK-50897 Menghindari pembuatan instans di ServiceLoader
SPARK-50877 Mendukung KMeans & BisectingKMeans dalam Connect- SPARK-50876 Mendukung Regresi Pohon di Connect
-
SPARK-50874 Dukungan
LinearRegressionsaat menyambungkan - SPARK-50869 Mendukung evaluator pada ML Connect
-
SPARK-50851 Parameter ML Ekspresif dengan
proto.Expression.Literal - SPARK-50825 Mendukung Pengklasifikasi Pohon di ML Connect
- SPARK-50827 Plugin dukungan
- SPARK-49907 Dukungan spark.ml pada Connect
-
SPARK-50968 Memperbaiki penggunaan
Column.__new__ - SPARK-49028 Membuat SparkSession bersama
- SPARK-49421 Membuat antarmuka RelationalGroupedDataset yang dibagikan bersama
- SPARK-50804 to_protobuf() tidak boleh melempar MatchError
- SPARK-50900 Menambahkan VectorUDT dan MatrixUDT ke ProtoDataTypes
-
SPARK-50579 Perbaiki
truncatedString - SPARK-50875 Menambahkan kolatasi RTRIM ke TVF
- SPARK-49420 Menambahkan antarmuka bersama untuk DataFrameNaFunctions
- SPARK-50669 Mengubah tanda tangan ekspresi TimestampAdd
- SPARK-46615 Dukungan s.c.immutable.ArraySeq di ArrowDeserializers
- SPARK-49423 Mengonsolidasikan Observasi dalam sql/api
- SPARK-49086 Memindahkan pendaftaran fungsi ML ke SparkSessionExtensions
- SPARK-49419 Menciptakan DataFrameStatFunctions bersama
- SPARK-50735 Kegagalan dalam ExecuteResponseObserver menghasilkan permintaan pemasangan ulang tak terbatas
- SPARK-50522 Dukungan untuk kolaterasi yang tidak ditentukan
- SPARK-50893 Tandai UDT.DataType opsional
- SPARK-50685 Meningkatkan performa Py4J dengan memanfaatkan getattr
-
SPARK-50742 Hapus
spark.hadoop.fs.s3a.connection.establish.timeoutpengaturan - SPARK-50714 Mengaktifkan evolusi skema untuk TransformWithState ketika pengodean Avro digunakan
- SPARK-49029 Membuat antarmuka Himpunan Data bersama
-
SPARK-50263 Ganti
System.currentTimeMillisdenganSystem.nanoTime - SPARK-50525 Tentukan Aturan Pengoptimal InsertMapSortInRepartitionExpressions
- SPARK-50561 Meningkatkan koersi jenis dan pemeriksaan batas untuk fungsi UNIFORM SQL
- SPARK-50707 Mengaktifkan konversi ke/dari char/varchar
- SPARK-49027 Bagikan COLUMN API antara Class dan Connect
- SPARK-49632 Hapus saran konfigurasi ANSI di CANNOT_PARSE_TIMESTAMP
- SPARK-50529 Mengubah perilaku char/varchar di bawah konfigurasi
- SPARK-50600 Set yang dianalisis saat analisis gagal
- SPARK-50789 Input untuk agregasi yang ditik harus dianalisis
- SPARK-49025 Membuat implementasi Kolom yang agnostik
- SPARK-50738 Tingkatkan hitam ke 23.12.1
- SPARK-49883 Integrasi State Store Checkpoint Structure V2 dengan RocksDB
- SPARK-50778 Menambahkan metadataColumn ke PySpark DataFrame
- SPARK-49565 Meningkatkan alias ekspresi yang dihasilkan otomatis dengan operator SQL pipa
- SPARK-50772 Pertahankan alias tabel setelah SET, operator EXTEND, DROP
- SPARK-50690 Memperbaiki perbedaan dalam DESCRIBE TABLE melihat kutipan output kueri
- SPARK-50675 Dukungan kolatasi tingkat tabel dan tampilan
- SPARK-50480 Memperluas CharType dan VarcharType menjadi bagian dari StringType
-
SPARK-50715
SparkSession.Buildermengatur konfigurasi dalam batch - SPARK-50693 Input untuk TypedScalaUdf harus dianalisis
- SPARK-50710 Menambahkan dukungan untuk koneksi ulang klien opsional ke sesi setelah rilis
- SPARK-50596 Tingkatkan Py4J dari 0.10.9.7 ke 0.10.9.8
- SPARK-50661 Tambahkan kompatibilitas mundur untuk klien FEB lama.
-
SPARK-50515 Menambahkan antarmuka baca-saja ke
SparkConf - SPARK-50642 Perbaiki skema status untuk FlatMapGroupsWithState di spark connect ketika tidak ada status awal
- SPARK-50702 Menyempurnakan docstring regexp_count, regexp_extract, dan regexp_extract_all
- SPARK-50692 Menambahkan dukungan pushdown RPAD
- SPARK-50699 Mengurai dan menghasilkan string DDL dengan sesi tertentu
- SPARK-50573 Menambahkan ID Skema Status ke Baris Status untuk evolusi skema
-
SPARK-50311 Dukungan API
(add|remove|get|clear)Tag(s)untuk PySpark - SPARK-50661 Perbaiki implementasi Spark Connect Scala foreachBatch. untuk mendukung Himpunan Data[T].
- SPARK-50696 Mengoptimalkan panggilan Py4J untuk metode penguraian DDL
- SPARK-50687 Optimalkan logika untuk mendapatkan stack trace untuk DataFrameQueryContext
- SPARK-50681 Cache skema yang diurai untuk MapInXXX dan ApplyInXXX
- SPARK-50578 Menambahkan dukungan untuk versi baru metadata status untuk TransformWithStateInPandas
- SPARK-50405 Menangani koersi jenis kolase tipe data kompleks dengan benar
- SPARK-50615 Masukkan varian ke dalam pemindaian.
- SPARK-50599 Membuat DataEncoder trait yang memungkinkan enkoding Avro dan UnsafeRow
- SPARK-50076 Memperbaiki logkeys
- SPARK-50339 Mengaktifkan changelog untuk menyimpan informasi silsilah data
- SPARK-50540 Memperbaiki skema string untuk StatefulProcessorHandle
-
SPARK-50544 Implementasi
StructType.toDDL -
SPARK-50528 Pindah
InvalidCommandInputke modul umum - SPARK-50063 Menambahkan dukungan untuk Varian di klien Spark Connect Scala
- SPARK-50310 Menambahkan bendera untuk menonaktifkan DataFrameQueryContext for PySpark
- SPARK-50310 Menambahkan bendera untuk menonaktifkan DataFrameQueryContext for PySpark
- SPARK-50032 Izinkan penggunaan nama pengurutan yang sepenuhnya memenuhi syarat
- SPARK-50466 Memperbaiki docstring untuk fungsi string - bagian 1
- SPARK-49676 Menambahkan Dukungan untuk Penautan Operator dalam TRANSFORMWithStateInPandas API
-
SPARK-50081 Dukungan Codegen untuk
XPath*(dengan Invoke & RuntimeReplaceable) - SPARK-46725 Menambahkan fungsi DAYNAME
SPARK-50067 Dukungan Codegen untuk SchemaOfCsv (dengan Invoke & RuntimeReplaceable)- SPARK-49873 memperbaiki kegagalan pasca penggabungan pada pengujian kesalahan
- SPARK-50270 Menambahkan metrik status kustom untuk TransformWithStateInPandas
-
SPARK-50381 Dukung
spark.master.rest.maxThreads - SPARK-50427 Mengekspos configure_logging sebagai API publik
- SPARK-50173 Membuat ekspresi pandas menerima lebih banyak jenis data
-
SPARK-50169 Meningkatkan performa
RegExpReplace - SPARK-50238 Menambahkan Dukungan Varian di PySpark UDFs/UDTFs/UDAF dan Python UC UDFs
- SPARK-50190 Menghapus dependensi langsung Numpy dari Histogram
- SPARK-50183 Menyatukan fungsi internal untuk Pandas API dan PySpark Plotting
-
SPARK-50170 Pindah
_invoke_internal_function_over_columnskepyspark.sql.utils - SPARK-50036 Sertakan SPARK_LOG_SCHEMA dalam konteks shell REPL
-
SPARK-50141 Membuat
lpaddanrpadmenerima argumen Jenis kolom - SPARK-49954 Dukungan Codegen untuk SchemaOfJson (oleh Invoke & RuntimeReplaceable)
-
SPARK-50098 Tingkatkan versi
googleapis-common-protosminimum menjadi 1.65.0 - SPARK-50059 Pemeriksaan kompatibilitas API untuk I/O Streaming Terstruktur
- SPARK-50241 Gantikan NullIntolerant Mixin dengan metode Expression.nullIntolerant
- SPARK-49849 Pemeriksaan kompatibilitas API untuk Manajemen Kueri Streaming Terstruktur
- SPARK-49851 Pemeriksaan kompatibilitas API untuk Protobuf
- SPARK-49850 Pemeriksaan kompatibilitas API untuk Avro
- SPARK-50039 Pemeriksaan kompatibilitas API untuk Pengelompokan
- SPARK-50023 Pemeriksaan kompatibilitas API untuk Functions
- SPARK-50030 Pemeriksaan kompatibilitas API untuk Jendela
- SPARK-50002 Pemeriksaan kompatibilitas API untuk I/O
- SPARK-49848 Pemeriksaan kompatibilitas API untuk Katalog
-
SPARK-50022 Memperbaiki
MasterPageuntuk menyembunyikan tautan Antarmuka Pengguna Aplikasi saat UI dinonaktifkan -
SPARK-50021 Memperbaiki
ApplicationPageuntuk menyembunyikan tautan Antarmuka Pengguna Aplikasi saat UI dinonaktifkan -
SPARK-49990 Meningkatkan performa
randStr - SPARK-50380 ReorderAssociativeOperator harus menghormati kontrak pada ConstantFolding
- SPARK-50330 Menambahkan petunjuk ke simpul Urutkan dan Jendela
- SPARK-49609 Menambahkan pemeriksaan kompatibilitas API antara Classic dan Connect
-
SPARK-49773 Pengecualian Java yang tidak tertangkap dari
make_timestamp()dengan zona waktu tidak valid - SPARK-49345 Pastikan menggunakan Sesi Spark yang sedang berjalan saat ini
- SPARK-49368 Hindari mengakses kelas lite protobuf secara langsung
- SPARK-50056 Dukungan Codegen untuk ParseUrl (menggunakan Invoke & RuntimeReplaceable)
-
SPARK-49119 Memperbaiki inkonsistensi sintaks
show columnsantara v1 dan v2 - SPARK-50144 Mengatasi batasan perhitungan metrik dengan sumber streaming DSv1
- SPARK-49962 Menyederhanakan hierarki kelas AbstractStringTypes
- SPARK-50327 Memisahkan resolusi fungsi agar dapat digunakan kembali dalam Analisator satu-lintasan
- SPARK-48775 Ganti SQLContext dengan SparkSession di STS
- SPARK-50325 Memperhitungkan resolusi alias untuk digunakan kembali dalam Penganalisis akses menyeluruh
- SPARK-48123 Menyediakan skema tabel konstan untuk mengkueri log terstruktur
- SPARK-50055 Tambahkan alternatif TryMakeInterval
-
SPARK-49312 Meningkatkan pesan kesalahan untuk
assertSchemaEqual - SPARK-38912 Menghapus komentar yang terkait dengan classmethod dan properti
- SPARK-50112 Mengizinkan operator TransformWithState menggunakan pengodean Avro
- SPARK-50260 Refaktor dan optimalkan eksekusi Spark Connect dan manajemen sesi
- SPARK-50196 Memperbaiki konteks kesalahan Python untuk menggunakan konteks yang tepat
- SPARK-50167 Meningkatkan PySpark memplot pesan kesalahan dan impor
-
SPARK-50085 Buat
lit(ndarray)dengan np.int8 menghormati jenis data numpy - SPARK-50273 Meningkatkan pencatatan untuk kasus pengambilan/pembebasan kunci pada RocksDB
- SPARK-50163 Memperbaiki pelepasan acquireLock tambahan RocksDB akibat listener completion.
- SPARK-49770 Tingkatkan manajemen pemetaan file RocksDB SST, dan perbaiki masalah dengan memuat ulang versi yang sama dengan rekam jepret yang ada
- SPARK-50232 Tambahkan 'protobuf==5.28.3' di dev/requirements.txt
-
SPARK-50231 Buat fungsi
instrmenerima Kolomsubstring - SPARK-50028 Ganti kunci global di pendengar server Spark Connect dengan kunci halus
- SPARK-50077 Memperkenalkan objek pola baru untuk LogicalRelation untuk membantu menghindari pola param penuh default
- SPARK-50128 Menambahkan API penanganan prosesor stateful menggunakan encoder implisit di Scala
- SPARK-49411 Mengomunikasikan ID Pos Pemeriksaan Penyimpanan Status antara driver dan operator berbasis status
- SPARK-50054 Mendukung plot histogram
- SPARK-49854 Jangan salin pustaka kluster saat mengkloning Manajer Artefak
- SPARK-50071 Menambahkan try_make_timestamp(_ltz dan _ntz) dan pengujian terkait
- SPARK-50024 Beralih menggunakan pencatat alih-alih modul peringatan di klien
-
SPARK-50174 Memisahkan
UnresolvedCatalogRelation -
SPARK-49734 Menambahkan
seedargumen untuk fungsishuffle -
SPARK-49943 Hapus
timestamp_ntz_to_longdariPythonSQLUtils -
SPARK-49945 Tambahkan alias untuk
distributed_id - SPARK-49755 Menghapus casing khusus untuk fungsi avro di Connect
-
SPARK-49805 Menghapus fungsi privat[xxx] dari
function.scala - SPARK-49929 Plot kotak dukungan
- SPARK-49767 Refaktor pemanggilan fungsi internal
- SPARK-49939 Dukungan Codegen untuk json_object_keys (dengan Invoke & RuntimeReplaceable)
- SPARK-49854 Mengkloning pengelola artefak saat kloning sesi
-
SPARK-49766 Dukungan Codegen untuk
json_array_length(menurutInvoke&RuntimeReplaceable) -
SPARK-49540 Menyatukan penggunaan
distributed_sequence_id - SPARK-50046 Gunakan urutan simpul EventTimeWatermark yang stabil untuk menghitung marka air
-
SPARK-50031
TryParseUrlMenambahkan ekspresi -
SPARK-49202 Terapkan
ArrayBinarySearchuntuk histogram - SPARK-49811 Ganti nama StringTypeAnyCollation
-
SPARK-50106 Tingkatkan
protobufpaket Python ke 5.28.3 -
SPARK-49203 Tambahkan ekspresi untuk
java.util.Arrays.binarySearch - SPARK-50090 Refaktor ResolveBinaryArithmetic untuk memisahkan transformasi simpul tunggal
-
SPARK-49103 Dukung
spark.master.rest.filters - SPARK-49222 Menghapus metode yang tidak berguna di QueryCompilationErrors
-
SPARK-50062 Kolatasi dukungan menurut
InSet - SPARK-50035 Menambahkan dukungan untuk fungsi eksplisit handleExpiredTimer sebagai bagian dari prosesor stateful
-
SPARK-50050 Jadikan
litterimastrdanbooltipe numpy ndarray -
SPARK-50051 Memastikan
litberfungsi dengan numpy ndarray kosong - SPARK-49857 Menambahkan storageLevel ke Dataset localCheckpoint API
- SPARK-48749 Menyederhanakan UnaryPositive dan menghilangkan Aturan Katalisnya dengan RuntimeReplaceable
- SPARK-50058 Memisahkan fungsi normalisasi rencana untuk kemudian menggunakannya dalam pengujian Analyzer sekali lewat
- SPARK-50042 Meningkatkan numpy 2 untuk linter python
- SPARK-50052 Menambahkan dukungan untuk NumpyArrayConverter agar mendukung ndarray dengan str kosong
-
SPARK-49126 Pindahkan
spark.history.ui.maxApplicationsdefinisi konfigurasi keHistory.scala - SPARK-50044 Menyempurnakan docstring beberapa fungsi matematika
- SPARK-48782 Menambahkan dukungan untuk menjalankan prosedur dalam katalog
- SPARK-48773 Dokumentasikan konfigurasi "spark.default.parallelism" oleh kerangka kerja pembangun konfigurasi
- SPARK-49876 Singkirkan kunci global dari Spark Connect Service
- SPARK-48480 StreamingQueryListener tidak boleh dipengaruhi oleh spark.interrupt()
- SPARK-49978 Memindahkan peringatan penghentian sparkR ke waktu lampirkan paket
-
SPARK-48549 Meningkatkan fungsi SQL
sentences - SPARK-49956 Kolasi dinonaktifkan dengan ekspresi collect_set
- SPARK-49974 Memindahkan resolveRelations(...) dari Analyzer.scala
- SPARK-49067 Memindahkan utf-8 literal ke dalam metode internal kelas UrlCodec
- SPARK-49393 Gagal secara default di API plugin katalog yang tidak digunakan lagi
-
SPARK-49918 Gunakan akses hanya-baca untuk konfigurasi di
SparkContextsebagaimana sesuai -
SPARK-49924 Simpan
containsNullsetelahArrayCompactpenggantian - SPARK-49895 Memperbaiki kesalahan ketika menemukan koma di akhir dalam SELECT klausa
- SPARK-49890 Ekstrak persiapan df.sample ke kelas induk
-
SPARK-49810 Ekstrak persiapan
DataFrame.sortke kelas induk - SPARK-49405 Membatasi charset di JsonOptions
- SPARK-49542 Kesalahan penilaian pengecualian transformasi partisi
- SPARK-47172 Menambahkan dukungan untuk AES-GCM untuk enkripsi RPC
- SPARK-44914 Perbaiki HadoopConfUtilsSuite setelah menghilangkan xercesImpl
- SPARK-47496 Dukungan Java SPI untuk pendaftaran dialek JDBC dinamis
- SPARK-48961 Membuat penamaan parameter PySparkException konsisten dengan JVM
- SPARK-47390 Menangani pemetaan tanda waktu SQL untuk Postgres dan MySQL
- SPARK-49824 Meningkatkan pengelogan di SparkConnectStreamingQueryCache
- SPARK-49894 Menyempurnakan representasi string operasi bidang kolom
- SPARK-49836 Memperbaiki kueri yang mungkin rusak saat jendela disediakan untuk window/session_window fn
- SPARK-49531 Mendukung plot garis dengan backend plotly
- SPARK-48780 Membuat penanganan kesalahan di NamedParametersSupport menjadi generik untuk menangani fungsi dan prosedur
- SPARK-49026 Menambahkan ColumnNode ke konversi Proto
-
SPARK-49814 Saat Klien Spark Connect dimulai, tampilkan
spark versionconnect server - SPARK-49246 TableCatalog#loadTable harus menunjukkan apakah untuk operasi penulisan
- SPARK-49749 Mengubah tingkat log menjadi debug di BlockManagerInfo
-
SPARK-48303 Mengatur ulang
LogKeys - SPARK-48112 Mengekspos sesi di SparkConnectPlanner ke plugin
-
SPARK-45919 Menggunakan Java 16
recorduntuk menyederhanakan definisi kelas Java -
SPARK-48126 Membuat
spark.log.structuredLogging.enabledefektif - SPARK-49656 Menambahkan dukungan untuk variabel status dengan jenis pengumpulan status nilai dan opsi umpan perubahan baca
- SPARK-49323 Memindahkan MockObserver dari folder uji Spark Connect Server ke folder utama Server
- SPARK-49772 Hapus ColumnFamilyOptions dan tambahkan konfigurasi langsung ke dbOptions di RocksDB
- SPARK-49688 Memperbaiki perlombaan data antara rencana interupsi dan eksekusi
- SPARK-49585 Gantikan peta eksekusi di SessionHolder dengan sekumpulan operationID
- SPARK-49684 Meminimalkan masa pakai kunci pemulihan sesi
- SPARK-48857 Membatasi set karakter dalam OpsiCSV
- SPARK-48615 Peningkatan kinerja untuk mengurai string hexadecimal
-
SPARK-49719 Membuat
UUIDdanSHUFFLEmenerima bilangan bulatseed -
SPARK-49713 Membuat fungsi
count_min_sketchmenerima argumen angka - SPARK-48623 Migrasi pengelogan terstruktur [Bagian 3]
- SPARK-48541 Menambahkan kode keluar baru untuk pelaksana yang dimatikan oleh TaskReaper
- SPARK-48627 Peningkatan kinerja untuk string biner ke HEX_DISCRETE
- SPARK-49226 Membersihkan pembuatan kode UDF
- SPARK-49673 Tingkatkan CONNECT_GRPC_ARROW_MAX_BATCH_SIZE menjadi 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
- SPARK-49307 Menambahkan serialisasi Kryo ke kerangka kerja encoder agnostik
- SPARK-48601 Berikan pesan kesalahan yang lebih ramah pengguna saat mengatur nilai null untuk Opsi JDBC
-
SPARK-42252 Menambahkan
spark.shuffle.localDisk.file.output.bufferdan menghentikanspark.shuffle.unsafe.file.output.buffer - SPARK-49505 Buat fungsi SQL baru "randstr" dan "seragam" untuk menghasilkan string atau angka acak dalam rentang
- SPARK-48341 Izinkan plugin untuk menggunakan QueryTest dalam pengujian mereka
- SPARK-48374 Mendukung jenis kolom Tabel PyArrow tambahan
- SPARK-49412 Menghitung semua metrik plot kotak dalam satu pekerjaan
- SPARK-49684 Menghapus kunci global dari manajer sesi dan eksekusi
- SPARK-49225 Menambahkan ColumnNode SQL dan normalize
- SPARK-49274 Mendukung encoder berbasis serialisasi java
- SPARK-49089 Memindahkan Ekspresi Katalis yang dikodekan secara permanen ke registri fungsi internal
- SPARK-48185 Memperbaiki 'kelas referensi simbolis tidak dapat diakses: kelas sun.util.calendar.ZoneInfo'
- SPARK-48037 Memperbaiki SortShuffleWriter yang tidak memiliki metrik terkait penulisan shuffle, yang mengakibatkan data berpotensi tidak akurat.
-
SPARK-49534 Tidak lagi menambahkan
sql/hivedansql/hive-thriftserverke depan ketikaspark-hive_xxx.jartidak ada di classpath - SPARK-49502 Hindari NPE dalam SparkEnv.get.shuffleManager.unregisterShuffle
-
SPARK-49567 Gunakan
classicalih-alihvanilladari basis kode PySpark - SPARK-49582 Memperbaiki utilitas dan docstring "dispatch_window_method"
- SPARK-49478 Menangani metrik null di ConnectProgressExecutionListener
- SPARK-49525 Peningkatan log minor pada Pendengar Kueri Streaming Sisi Server di ListenerBus
- SPARK-49544 Mengganti mekanisme penguncian kasar pada SparkConnectExecutionManager dengan ConcurrentMap
- SPARK-49548 Ganti kunci kasar di SparkConnectSessionManager dengan ConcurrentMap
- SPARK-49004 Menggunakan registri terpisah untuk fungsi internal Column API
- SPARK-49443 Menerapkan ekspresi to_variant_object dan membuat ekspresi schema_of_variant mencetak OBJECT untuk Objek Varian
-
SPARK-49595 Perbaikan
DataFrame.unpivot/meltdi Klien Spark Connect Scala - SPARK-49526 Mendukung jalur gaya Windows di ArtifactManager
- SPARK-49396 Ubah pengecekan keterjadian null untuk ekspresi CaseWhen
- SPARK-49024 Menambahkan dukungan untuk fungsi ke simpul kolom
- SPARK-48985 Sambungkan Konstruktor Ekspresi yang Kompatibel
- SPARK-49083 Izinkan from_xml dan from_json bekerja secara asli dengan skema json
- SPARK-48986 Menambahkan Representasi Perantara ColumnNode
- SPARK-48960 Membuat spark-submit berfungsi dengan Spark connect
- SPARK-49492 Percobaan penyambungan kembali pada ExecutionHolder yang tidak aktif
- SPARK-47307 Menambahkan konfigurasi untuk secara opsional memotong string base64
- SPARK-49451 Perbolehkan kunci duplikat dalam parse_json
- SPARK-49021 Menambahkan dukungan untuk membaca variabel status nilai transformWithState dengan pembaca sumber data status
-
SPARK-49249 Menambahkan
addArtifactAPI ke Spark SQL Core - SPARK-48693 Menyederhanakan dan menyatukan `toString` `Invoke` dan `StaticInvoke`
- SPARK-41982 Partisi jenis string tidak boleh diperlakukan sebagai jenis numerik
- SPARK-49216 Memperbaiki agar tidak mencatat konteks pesan dengan LogEntry yang dibangun secara eksplisit ketika konfigurasi Pengelogan Terstruktur nonaktif.
-
SPARK-49459 Dukungan
CRC32Cuntuk Shuffle Checksum - SPARK-49409 Sesuaikan nilai default CONNECT_SESSION_PLAN_CACHE_SIZE
- SPARK-49164 Memperbaiki ketidaksetaraan Null dalam predikat kueri SQL pada Relasi JDBC
- SPARK-48344 Eksekusi Skrip SQL (termasuk Spark Connect)
-
SPARK-49260 Tidak lagi menambahkan jalur
sql/corekelas modul di Spark Connect Shell -
SPARK-49041 Memunculkan kesalahan yang tepat ketika
dropDuplicatessalahsubsetdiberikan - SPARK-49300 Memperbaiki kebocoran token delegasi Hadoop ketika tokenRenewalInterval tidak diatur
- SPARK-48796 Muat Id Keluarga Kolom dari RocksDBCheckpointMetadata untuk VCF saat menghidupkan ulang
- SPARK-49269 Mengevaluasi daftar () dengan bersemangat VALUESdi AstBuilder
- SPARK-49336 Membatasi tingkat perulangan saat mengurangi pesan protobuf
- SPARK-49245 Merefaktor beberapa aturan analisis
- SPARK-48755 transformWithState implementasi dasar pyspark dan dukungan ValueState
- SPARK-48762 Memperkenalkan CLUSTERBy DataFrameWriter API untuk Python
- SPARK-48967 Meningkatkan performa dan penggunaan memori "INSERT INTO ... VALUES" pernyataan
- SPARK-49195 Menyematkan logika penguraian tingkat skrip ke SparkSubmitCommandBuilder
-
SPARK-49173 Ubah permintaan shell Spark Connect dari
@kescala> - SPARK-49198 Pangkas lebih banyak jar yang diperlukan untuk shell Spark Connect
- SPARK-48936 Membuat spark-shell berfungsi dengan Spark connect
-
SPARK-49201
histplot diimplementasikan ulang dengan Spark SQL - SPARK-49111 Pindahkan denganProjectAndFilter ke objek pendamping DataSourceV2Strategy
-
SPARK-49185 Menerapkan ulang
kdegrafik dengan Spark SQL - SPARK-48761 Memperkenalkan CLUSTERBy DataFrameWriter API untuk Scala
- SPARK-48628 Menambahkan metrik memori puncak tugas untuk on-heap dan off-heap.
-
SPARK-48900 Tambahkan
reasonkolom untuk semua panggilan internal untuk pembatalan job/stage -
SPARK-49076 Perbaiki yang sudah kedaluarsa
logical plan namedalam komentar AstBuilder -
SPARK-49059 Pindah
SessionHolder.forTesting(...)ke paket pengujian - SPARK-48658 Fungsi Enkode/Dekode melaporkan kesalahan pengodean alih-alih mojibake
- SPARK-45891 Menambahkan dukungan untuk jenis interval dalam Spesifikasi Varian
- SPARK-49032 Menambahkan jalur skema dalam entri tabel metadata dan pengujian terkait untuk format metadata operator v2
- SPARK-49009 Membuat API kolom dan fungsi menerima Enum
-
SPARK-49035 Menghilangkan TypeVar
ColumnOrName_ - SPARK-48849 Membuat OperatorStateMetadataV2 untuk operator TransformWithStateExec
-
SPARK-48974 Gunakan
SparkSession.implicitsalih-alihSQLContext.implicits -
SPARK-48996 Perbolehkan literal kosong untuk
__and__dan__or__kolom - SPARK-48928 Peringatan Log untuk Memanggil .unpersist() pada RDD yang Dicentang Secara Lokal
- SPARK-48972 Menyatukan penanganan string harfiah dalam fungsi
- SPARK-48891 Refaktor StateSchemaCompatibilityChecker untuk menyatukan semua format skema status
-
SPARK-48841 Sertakan
collationNamekesql()dariCollate - SPARK-48944 Menyatukan penanganan skema format JSON di Connect Server
-
SPARK-48945 Menyederhanakan fungsi regex dengan
lit - SPARK-48865 Menambahkan fungsi try_url_decode
-
SPARK-48851 Mengubah nilai dari
SCHEMA_NOT_FOUNDmenjadinamespacecatalog.namespace -
SPARK-48510 Perbaikan untuk UDAF
toColumnAPI saat menjalankan pengujian di Maven - SPARK-45190 Menambahkan dukungan untuk skema StructType
-
SPARK-48900 Tambahkan
reasonbidang untukcancelJobGroupdancancelJobsWithTag - SPARK-48909 Menggunakan SparkSession melalui SparkContext saat menulis metadata
- SPARK-48510 Mendukung API UDAF di Spark Connect
- SPARK-45155 Menambahkan DOKUMEN API untuk Klien Spark Connect JVM/Scala
- Dukungan SPARK-48794 df.mergeInto untuk Spark Connect (Scala dan Python)
-
SPARK-48714 Menerapkan
DataFrame.mergeIntodi PySpark - SPARK-48726 Membuat format file StateSchemaV3 untuk operator TransformWithStateExec
- SPARK-48834 Menonaktifkan input/output varian ke UDF, UDTF, UDAF Python selama kompilasi kueri
- SPARK-48716 Menambahkan jobGroupId ke SparkListenerSQLExecutionStart
- SPARK-48888 Menghapus pembuatan rekam jepret berdasarkan ukuran operasi changelog
- SPARK-48772 Mode Pembaca Umpan Perubahan Sumber Data Status
- SPARK-48742 Keluarga Kolom Virtual di RocksDB
- SPARK-48852 Perbaikan fungsi pemangkasan string pada koneksi
- SPARK-48343 Pengenalan penerjemah Skrip SQL
-
SPARK-48118 Mendukung
SPARK_SQL_LEGACY_CREATE_HIVE_TABLEvariabel env SPARK-48804 Menambahkan pemeriksaan classIsLoadable & OutputCommitter.isAssignableFrom untuk konfigurasi kelas komitter output- SPARK-47577 Koreksi penggunaan kunci log TASK_ID yang menyesatkan
-
SPARK-48798 Memperkenalkan
spark.profile.renderpembuatan profil berbasis SparkSession - SPARK-48686 Meningkatkan performa ParserUtils.unescapeSQLString
- SPARK-48611 Log TID untuk pemisahan input di HadoopRDD dan NewHadoopRDD
-
SPARK-48720 Meratakan perintah
ALTER TABLE ... UNSET TBLPROPERTIES ...di v1 dan v2 - SPARK-48710 Menggunakan jenis yang kompatibel dengan NumPy 2.0
- SPARK-48810 Sesi stop() API harus idempogen
-
SPARK-48818 Menyederhanakan
percentilefungsi - SPARK-48638 Menambahkan dukungan ExecutionInfo untuk DataFrame
- SPARK-48799 Versi ulang metadata pengelola untuk membaca/menulis
-
SPARK-46122 Atur
spark.sql.legacy.createHiveTableByDefaultkefalsesecara default - SPARK-48629 Memigrasikan kode residu ke kerangka kerja pengelogan terstruktur
- SPARK-48320 Sinkronkan fitur pencatatan log terbaru dan kasus pengujian dari perangkat lunak sumber terbuka Spark
- SPARK-48573 Tingkatkan versi ICU
- SPARK-48687 Menambahkan validasi dan pembaruan skema status pada driver dalam fase perencanaan untuk kueri stateful
- SPARK-47579 Memigrasikan logInfo dengan variabel ke kerangka kerja pengelogan terstruktur (BAGIAN 1–4)
- SPARK-48713 Tambahkan pemeriksaan rentang indeks untuk UnsafeRow.pointTo saat baseObject adalah array byte
- SPARK-48498 Selalu lakukan padding pada karakter dalam predikat
- SPARK-48598 Menyebarkan skema cache dalam operasi dataframe
- SPARK-47599 MLLib: Memigrasikan logWarn dengan variabel ke kerangka kerja pengelogan terstruktur
- SPARK-48576 Ganti nama UTF8_BINARY_LCASE menjadi UTF8_LCASE
- SPARK-48650 Memperlihatkan situs panggilan yang tepat dari IPython Notebook
- SPARK-48059 Kerangka kerja log terstruktur di sisi Java
- SPARK-48482 dropDuplicates dan dropDuplicatesWithinWatermark harus menerima argumen dengan panjang variabel
-
SPARK-48620 Memperbaiki kebocoran data mentah internal di
YearMonthIntervalTypedanCalendarIntervalType - SPARK-48555 Dukungan menggunakan Kolom sebagai parameter untuk beberapa fungsi
-
SPARK-48591 Menambahkan fungsi pembantu untuk menyederhanakan
Column.py - SPARK-48459 Menerapkan DataFrameQueryContext di Spark Connect
- SPARK-48610 Refaktor: gunakan idMap tambahan alih-alih OP_ID_TAG
-
SPARK-47923 Tingkatkan versi
arrowminimum paket R ke 10.0.0 - SPARK-48593 Memperbaiki representasi string fungsi lambda
- SPARK-46947 Tunda inisialisasi manajer memori hingga plugin Driver dimuat
- SPARK-48220 Memungkinkan penggunaan Tabel PyArrow untuk createDataFrame()
- SPARK-48564 Menyebarkan skema yang di-cache dalam operasi yang ditetapkan
-
SPARK-48561 Lemparkan
PandasNotImplementedErroruntuk fungsi pemplotan yang tidak didukung - SPARK-48513 Menambahkan kelas kesalahan untuk kompatibilitas skema status
- SPARK-48553 Cache properti lainnya
- SPARK-48550 Langsung menggunakan kelas Jendela induk
- SPARK-48504 Kelas Jendela Induk untuk Spark Connect dan Spark Classic
-
SPARK-48508 Skema yang ditentukan pengguna cache di
DataFrame.{to, mapInPandas, mapInArrow} - SPARK-48496 Menggunakan instans Pola regex statis di JavaUtils
- SPARK-47578 Backport manual: memigrasikan logWarning dengan variabel
- SPARK-47737 Bump PyArrow ke 10.0.0
- SPARK-48159 Memperluas dukungan untuk penyortiran string pada ekspresi tanggal dan waktu
- SPARK-48454 Langsung gunakan kelas DataFrame induk
- SPARK-48438 Langsung menggunakan kelas Kolom induk
- SPARK-47597 Backport secara manual: memigrasikan logInfo dan variabel
-
SPARK-48434 Memanfaatkan
printSchemaskema yang di-cache -
SPARK-46998 Menghentikan konfigurasi SQL
spark.sql.legacy.allowZeroIndexInFormatString - SPARK-46569 Hapus ThreadLocal untuk SecureRandom sejak JDK9
- SPARK-46455 Menghapus konversi jenis redundan
-
SPARK-46270 Menggunakan ekspresi java16
instanceof - SPARK-46479 Gunakan metode utilitas dari commons-lang3 untuk pemeriksaan versi Java
- SPARK-45998 Membersihkan cast tipe redundan
- SPARK-45533 Gunakan j.l.r.Cleaner alih-alih menyelesaikan RocksDBIterator/LevelDBIterator
- SPARK-45309 Hapus semua SystemUtils.isJavaVersionAtLeast dengan JDK 9/11/17
-
SPARK-48295 Aktifkan
compute.ops_on_diff_framessecara default - SPARK-47960 Mengizinkan penautan operator stateful lainnya setelah transformWithState
- SPARK-48367 Memperbaiki lint-scala untuk deteksi file scalafmt
- SPARK-48247 Gunakan semua nilai dalam dict untuk inferensi skema MapType
- SPARK-48370 Titik pemeriksaan dan localCheckpoint di klien Scala Spark Connect
- SPARK-48258 Titik pemeriksaan dan localCheckpoint di Spark Connect
- SPARK-48293 Tambahkan uji untuk interupsi pembungkus ForeachBatchUserFuncException
- SPARK-48031 Menguraikan konfigurasi viewSchemaMode; menambahkan dukungan SHOW CREATE TABLE
- SPARK-48288 Tambahkan tipe data sumber untuk ekspresi casting konektor
- SPARK-48310 Properti-properti yang di-cache harus mengembalikan salinan
-
SPARK-48287 Menerapkan metode bawaan
timestamp_diff - SPARK-44444 Gunakan mode ANSI SQL secara default
-
SPARK-48276 Tambahkan yang hilang
__repr__untukSQLExpression - SPARK-46991 Ganti IllegalArgumentException dengan SparkIllegalArgumentException dalam katalis
- SPARK-48031 Evolusi skema tampilan dukungan
- SPARK-48113 Izinkan Plugin untuk berintegrasi dengan Spark Connect
- SPARK-47158 Menetapkan nama dan sqlState ke kode kesalahan lama
-
SPARK-47545 Dukungan himpunan
observedata untuk klien Scala - SPARK-47993 Hentikan dukungan untuk Python 3.8
- SPARK-48260 Menonaktifkan koordinasi penyerahan output di ParquetIOSuite
- SPARK-47365 Menambahkan metode dataFrame toArrow() ke PySpark
- SPARK-47963 Mengaktifkan pengelogan terstruktur untuk ekosistem Spark eksternal
- SPARK-48045 Memperbaiki masalah multi-agg-relabel yang mengabaikan kondisi as_index=False
- SPARK-47719 Mengubah default timeParserPolicy menjadi CORRECTED
- SPARK-48075 Pemeriksaan tipe untuk fungsi Avro PySpark
- SPARK-48102 Memantau durasi metrik dalam perkembangan kueri streaming
- SPARK-47858 Konteks kesalahan Refaktor DataFrame
-
SPARK-48052 Memulihkan
pyspark-connectCI berdasarkan kelas induk - SPARK-45284 Memperbarui persyaratan sistem minimum SparkR ke Java 17
- SPARK-47933 Kelas Kolom Induk untuk Spark Connect dan Klasik
- SPARK-48053 SparkSession.createDataFrame harus memperingatkan untuk opsi yang tidak didukung
-
SPARK-48044 Tembolok
DataFrame.isStreaming - SPARK-47594 Migrasi log terstruktur
- SPARK-47764 Membersihkan dependensi shuffle dengan mode ShuffleCleanupMode
- SPARK-45501 Menggunakan pencocokan pola untuk pemeriksaan dan konversi jenis
-
SPARK-45515 Gunakan ekspresi yang disempurnakan
switchuntuk menggantikan pernyataan regulerswitch - SPARK-47417 Dukungan pengurutan: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Kalimat
- SPARK-47909 Kelas DataFrame Induk untuk Spark Connect dan Spark Classic
- SPARK-47602 Core/MLLib/Resource managers: migrasi pengelogan terstruktur
- SPARK-47390 PostgresDialect membedakan TIMESTAMP dari TIMESTAMP_TZ
- SPARK-47868 Memperbaiki kesalahan batas rekursi di SparkConnectPlanner dan SparkSession
-
SPARK-45802 Menghapus check-in Java
majorVersionyang tidak lagi diperlukanPlatform - SPARK-47818 Memperkenalkan penyimpanan sementara rencana di SparkConnectPlanner untuk meningkatkan performa permintaan analisis
-
SPARK-46031 Ganti
!Optional.isPresent()denganOptional.isEmpty() -
SPARK-45659 Tambahkan
sincebidang ke Java API yang ditandai sebagai@Deprecated - SPARK-45596 Gunakan java.lang.ref.Cleaner alih-alih org.apache.spark.sql.connect.client.util.Cleaner
- SPARK-47807 Membuat pyspark.ml kompatibel dengan pyspark-connect
-
SPARK-45830 Refaktor
StorageUtils#bufferCleaner -
SPARK-45578 Menghapus penggunaan
InaccessibleObjectExceptiondengan menggantinya menggunakantrySetAccessible - SPARK-44895 Tambahkan 'daemon', 'prioritas' untuk ThreadStackTrace
- SPARK-45295 Menghapus solusi Utils.isMemberClass untuk JDK 8
- SPARK-47081 Mendukung Kemajuan Eksekusi Kueri
- SPARK-45322 Gunakan ProcessHandle untuk mendapatkan pid secara langsung
- SPARK-46812 Membuat agar mapInPandas / mapInArrow dapat mendukung ResourceProfile
- SPARK-47406 Menangani TIMESTAMP dan DATETIME di MYSQLDialect
- SPARK-47712 Izinkan plugin koneksi untuk membuat dan memproses Dataset
-
SPARK-47720 Perbarui
spark.speculation.multiplierke 3 danspark.speculation.quantileke 0,9 - SPARK-47665 Gunakan SMALLINT untuk Menulis ShortType ke MYSQL
- SPARK-47722 Tunggu hingga pekerjaan latar belakang RocksDB selesai sebelum menutup
-
SPARK-47610 Selalu atur
io.netty.tryReflectionSetAccessible=true - SPARK-47372 Menambahkan dukungan untuk encoder status kunci berbasis pemindaian rentang agar dapat digunakan dengan penyedia penyimpanan status.
- SPARK-44708 Migrasikan test_reset_index assert_eq untuk menggunakan assertDataFrameEqual
- SPARK-47346 Membuat mode daemon dapat dikonfigurasi saat membuat pekerja perencana Python
-
SPARK-47419 Pindah
log4j2-defaults.propertieskecommon/utils - SPARK-47380 Pastikan di sisi server bahwa SparkSession sama
- SPARK-47055 Tingkatkan MyPy 1.8.0
-
SPARK-46795 Ganti
UnsupportedOperationExceptiondenganSparkUnsupportedOperationExceptiondisql/core -
SPARK-46648 Gunakan
zstdsebagai kompresi ORC default -
SPARK-47322 Membuat
withColumnsRenamedpenanganan duplikasi nama kolom konsisten denganwithColumnRenamed -
SPARK-47011 Hapus tidak digunakan lagi
BinaryClassificationMetrics.scoreLabelsWeight -
SPARK-46332 Bermigrasi
CatalogNotFoundExceptionke kelas kesalahanCATALOG_NOT_FOUND - SPARK-46975 Mendukung metode fallback khusus
-
SPARK-47069 Memperkenalkan
spark.profile.show/dumppembuatan profil berbasis SparkSession - SPARK-47062 Pindahkan Plugin Connect ke Java untuk Kompatibilitas
- SPARK-46833 Kolasi - Memperkenalkan CollationFactory yang menyediakan aturan perbandingan dan hashing untuk kolasi yang didukung
- SPARK-46984 Hapus pyspark.copy_func
- SPARK-46849 Menjalankan pengoptimal pada CREATE TABLE default kolom
-
SPARK-46976 Mengimplementasikan
DataFrameGroupBy.corr - SPARK-46911 Menambahkan operator deleteIfExists ke StatefulProcessorHandleImpl
-
SPARK-46955 Menerapkan
Frame.to_stata -
SPARK-46936 Menerapkan
Frame.to_feather -
SPARK-46655 Lewati penangkapan konteks kueri dalam
DataFramemetode -
SPARK-46926 Tambahkan
convert_dtypes,infer_objectsdanset_axisdalam daftar fallback - SPARK-46683 Menulis generator subkueri yang menghasilkan permutasi subkueri untuk meningkatkan cakupan pengujian
-
SPARK-46777 Merombak struktur katalis
StreamingDataSourceV2Relationagar lebih sebanding dengan versi batch - SPARK-46620 Memperkenalkan mekanisme fallback dasar untuk metode kerangka
- SPARK-46808 Memperbaiki kelas kesalahan di Python dengan fungsi pengurutan otomatis
- SPARK-46686 Dukungan dasar profiler UDF Python berbasis SparkSession
-
SPARK-46258 Tambah
RocksDBPersistenceEngine -
SPARK-46665 Buka
assertPandasOnSparkEqual -
SPARK-46227 Pindah
withSQLConfdariSQLHelperkeSQLConfHelper - SPARK-40876 Memperluas promosi tipe pada pembaca Parquet
- SPARK-46101 Kurangi kedalaman tumpukan dengan mengganti (string|array).ukuran dengan (string|array).length
- SPARK-46170 Mendukung pengintegrasian aturan strategi perencana pasca-kueri adaptif di SparkSessionExtensions
- SPARK-46246EXECUTE IMMEDIATE Dukungan SQL
- SPARK-46466 Pembaca parket vektorisasi tidak boleh melakukan rebase untuk tanda waktu ntz
- SPARK-46399 Menambahkan status keluar ke peristiwa Akhir Aplikasi untuk penggunaan Spark Listener
- SPARK-45506 Menambahkan dukungan URI ivy ke addArtifact SparkConnect
- SPARK-45597 Mendukung pembuatan tabel menggunakan sumber data Python di SQL (DSv2 exec)
- SPARK-46402 Menambahkan getMessageParameters dan dukungan getQueryContext
-
SPARK-46213 Memperkenalkan
PySparkImportErrorkerangka kesalahan -
SPARK-46226 Migrasikan semua yang tersisa
RuntimeErrorke dalam kerangka kerja kesalahan PySpark -
SPARK-45886 Output log tumpukan lengkap dalam
callSitekonteks DataFrame - SPARK-46256 Dukungan Kompresi Paralel untuk ZSTD
- SPARK-46249 Memerlukan kunci instans untuk memperoleh metrik RocksDB untuk mencegah balapan dengan operasi latar belakang
-
SPARK-45667 Bersihkan penggunaan API yang tidak digunakan lagi yang terkait dengan
IterableOnceExtensionMethods - SPARK-46254 Menghapus pemeriksaan versi Python 3.8/3.7 yang tidak terpakai
-
SPARK-46213 Memperkenalkan
PySparkImportErrorkerangka kesalahan - SPARK-46188 Memperbaiki CSS tabel yang dihasilkan dokumen Spark
-
SPARK-45670 SparkSubmit tidak mendukung
--total-executor-coressaat menyebarkan di K8s -
SPARK-46169 Menetapkan nomor JIRA yang sesuai untuk parameter yang hilang dari
DataFrameAPI - SPARK-45022 Menyediakan konteks untuk kesalahan API himpunan data
- SPARK-46062 Sinkronkan bendera isStreaming antara definisi CTE dan referensi
-
SPARK-45698 Bersihkan penggunaan API yang tidak digunakan lagi yang terkait dengan
Buffer - SPARK-45136 Tingkatkan ClosureCleaner dengan dukungan Amonite
- SPARK-44442 Menghapus dukungan Mesos
- SPARK-45996 Menampilkan pesan persyaratan dependensi yang tepat untuk Spark Connect
-
SPARK-45767 Hapus
TimeStampedHashMapdan UT-nya - SPARK-45912 Peningkatan XSDToSchema API: Ubah ke HDFS API untuk aksesibilitas penyimpanan cloud
-
SPARK-45338 Ganti
scala.collection.JavaConverterskescala.jdk.CollectionConverters - SPARK-45828 Menghapus metode yang tidak digunakan lagi di dsl
- SPARK-45718 Hapus fitur Pandas yang tidak digunakan lagi dari Spark 3.4.0
-
SPARK-45990 Tingkatkan
protobufke 4.25.1 untuk mendukungPython 3.11 -
SPARK-45941 Tingkatkan
pandaske versi 2.1.3 - SPARK-45555 Menyertakan objek yang dapat di-debug untuk pernyataan yang gagal
- SPARK-45710 Tetapkan nama ke kesalahan _LEGACY_ERROR_TEMP_21[59, 60, 61, 62]
- SPARK-45733 Mendukung beberapa kebijakan ulang coba
- SPARK-45503 Tambahkan Conf untuk Mengatur Kompresi RocksDB
- SPARK-45614 Tetapkan nama untuk kesalahan _LEGACY_ERROR_TEMP_215[6,7,8]
- SPARK-45680 Peluncuran sesi
- SPARK-45620 Memperbaiki API yang berhubungan dengan pengguna terkait UDTF Python untuk menggunakan camelCase
-
SPARK-45634 Hapus
DataFrame.get_dtype_countsdari Pandas API di Spark - SPARK-44752 XML: Memperbarui Dokumen Spark
- SPARK-45523 Mengembalikan pesan kesalahan yang berguna jika UDTF mengembalikan Tidak Ada untuk kolom yang tidak dapat diubah ke null
- SPARK-45558 Memperkenalkan file metadata untuk operator stateful streaming
-
SPARK-45390 Hapus
distutilspenggunaan - SPARK-45517 Perluas lebih banyak konstruktor pengecualian untuk mendukung parameter kerangka kerja kesalahan
- SPARK-45427 Menambahkan pengaturan RPC SSL ke SSLOptions dan SparkTransportConf
- SPARK-45581 Jadikan SQLSTATE wajib.
- SPARK-44784 Buat pengujian SBT terisolasi.
- SPARK-45550 Menghapus API yang tidak digunakan lagi dari Pandas API di Spark
- SPARK-45415 Izinkan penonaktifan selektif "fallocate" pada statestore RocksDB
- SPARK-45487 Memperbaiki SQLSTATEs dan kesalahan sementara
- SPARK-45505 Refaktor analyzeInPython agar lebih dapat digunakan kembali
- SPARK-45451 Membuat tingkat penyimpanan default cache himpunan data dapat dikonfigurasi
- SPARK-45065 Mendukung Pandas 2.1.0
- SPARK-45450 Perbaiki impor sesuai dengan PEP8: pyspark.pandas dan pyspark (inti)
- SPARK-43299 Mengonversi StreamingQueryException pada Klien Scala
-
SPARK-42617 Dukungan
isocalendardari Pandas versi 2.0.0 - SPARK-45441 Memperkenalkan lebih banyak fungsi util untuk PythonWorkerUtils
- SPARK-43620 Memperbaiki API Pandas tergantung pada fitur yang tidak didukung
- SPARK-45330 Tingkatkan amonit ke 2.5.11
- SPARK-45267 Ubah nilai default untuk numeric_only.
- SPARK-45303 Menghapus solusi JDK 8/11 di KryoSerializerBenchmark
-
SPARK-43433 Mencocokkan
GroupBy.nthperilaku dengan Panda terbaru -
SPARK-45166 Bersihkan jalur kode yang tidak digunakan untuk
pyarrow<4 - SPARK-44823 Perbarui black ke 23.9.1 dan perbaiki pemeriksaan yang salah
-
SPARK-45165 Menghapus
inplaceparameter dariCategoricalIndexAPI -
SPARK-45180 Menghapus input boolean untuk
inclusiveparameter dariSeries.between -
SPARK-45164 Menghapus API yang tidak digunakan
Indexlagi - SPARK-45179 Tingkatkan versi minimum Numpy menjadi 1.21
-
SPARK-45177 Hapus
col_spaceparameter darito_latex -
SPARK-43241
MultiIndex.appendtidak memeriksa nama untuk kesetaraan -
SPARK-43123 Memunculkan
TypeErrorketikaDataFrame.interpolatesemua kolom merupakan object-dtype. -
SPARK-43295 Mendukung kolom jenis string untuk
DataFrameGroupBy.sum -
SPARK-42619 Menambahkan
show_countsparameter untuk DataFrame.info - SPARK-44863 Menambahkan tombol untuk mengunduh cadangan utas sebagai txt di antarmuka pengguna Spark
- SPARK-44713 Memindahkan kelas bersama ke sql/api
- SPARK-44692 Pindahkan Pemicu ke sql/api
-
SPARK-43563 Hapus
squeezedariread_csv& mengaktifkan lebih banyak pengujian. -
SPARK-43476 Dukungan
StringMethodsuntuk pandas 2.0.0 ke atas -
SPARK-43872 Dukungan
(DataFrame|Series).plotdengan panda 2.0.0 ke atas. -
SPARK-42620 Menambahkan
inclusiveparameter untuk (DataFrame|Series).between_time -
SPARK-44289 Dukungan
indexer_between_timeuntuk pandas 2.0.0 dan mengaktifkan lebih banyak pengujian. - SPARK-42621 Menambahkan parameter inklusif untuk pd.date_range
-
SPARK-43709 Hapus
closedparameter darips.date_range& aktifkan pengujian. - SPARK-43568 Dukung API untuk pandas 2
- SPARK-44842 Mendukung fungsi statistik untuk panda 2.0.0 dan mengaktifkan pengujian.
-
SPARK-43606 Hapus
Int64Index&Float64Index -
SPARK-43873 Mengaktifkan
FrameDescribeTests -
SPARK-44841 Dukungan
value_countsuntuk pandas 2.0.0 ke atas. - SPARK-44686 Tambahkan kemampuan untuk membuat RowEncoder di Encoders.scala.
- SPARK-41400 Menghapus Dependensi Katalis Klien Connect
- SPARK-44538 Kembalikan Row.jsonValue dan fungsi terkait
- SPARK-44507 Pindahkan AnalysisException ke sql/api
- SPARK-44531 Memindahkan inferensi encoder ke sql/api
- SPARK-43744 Memperbaiki masalah pemuatan kelas yang disebabkan oleh kelas pengguna stub yang tidak ditemukan di classpath server
- SPARK-36612 Mendukung membangun gabungan luar kiri atau membangun gabungan luar kanan dalam gabungan hash yang diacak
-
SPARK-44541 Hapus fungsi
hasRangeExprAgainstEventTimeColyang tidak berguna dariUnsupportedOperationChecker - SPARK-44059 Menambahkan dukungan penganalisis dari argumen bernama untuk fungsi bawaan
- SPARK-44216 Membuat API assertSchemaEqual menjadi publik
- SPARK-43755 Pindahkan eksekusi dari SparkExecutePlanStreamHandler dan ke utas yang berbeda
- SPARK-44201 Menambahkan dukungan untuk Pendengar Streaming di Scala untuk Spark Connect
- SPARK-43965 Mendukung UDTF Python di Spark Connect
- SPARK-44398 Scala foreachBatch API
- SPARK-44044 Meningkatkan pesan Kesalahan untuk fungsi Jendela dengan streaming
Dukungan pada driver Databricks ODBC/JDBC
Databricks mendukung driver ODBC/JDBC yang dirilis dalam 2 tahun terakhir. Unduh driver dan peningkatan yang baru dirilis (unduh ODBC, unduh JDBC).
Pembaruan pemeliharaan
Lihat Pembaruan pemeliharaan Databricks Runtime 17.0.
Lingkungan sistem
- Sistem Operasi : Ubuntu 24.04.2 LTS
- Java: Zulu17.54+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Danau Delta: 4.0.0
Pustaka Python yang diinstal
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| tipe beranotasi | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| Pengikatan Argon2-cffi | 21.2.0 | anak panah | 1.3.0 | asttoken | 2.0.5 |
| astunparse | 1.6.3 | asinkron-lru | 2.0.4 | atribut | 24.3.0 |
| perintah otomatis | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| Azure Storage Blob | 12.23.0 | Azure Storage File Data Lake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | hitam | 24.10.0 |
| pemutih | 6.2.0 | blinker | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools (perangkat untuk caching) | 5.5.1 | sertifikat | 31 Januari 2025 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| klik | 8.1.7 | cloudpickle (perpustakaan Python untuk serialisasi objek) | 3.0.0 | Komunikasi | 0.2.1 |
| Contourpy | 1.3.1 | Kriptografi | 43.0.3 | pengendara sepeda | 0.11.0 |
| Cython | 3.0.12 | databricks-sdk | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | penghias | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | konversi docstring ke markdown | 0.11 |
| Mengeksekusi | 0.8.3 | gambaran umum aspek | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | filelock | 3.18.0 | alat pengelola font | 4.55.3 |
| Fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth (autentikasi Google) | 2.40.0 |
| google-cloud-core | 2.4.3 | penyimpanan awan Google | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (layanan media berkelanjutan dari Google) | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | memfleksi | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isodurasi | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.teks | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| Spesifikasi JSON Schema | 2023.7.1 | peristiwa Jupyter | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| Terminal Jupyter Server | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient (klien layanan web yang menggunakan RESTful) | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline (modul untuk menampilkan grafik secara inline) | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| penyetelan salah | 2.0.4 | mlflow-skinny (versi ringan) | 2.22.0 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | buku_catatan_shim | 0.2.3 | numpy (perpustakaan Python untuk operasi numerik) | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-konvensi-semantik | 0.53b1 | Mengabaikan | 7.4.0 | pengemasan | 24.1 |
| Panda | 2.2.3 | Pandocfilters | 1.5.0 | pengurai | 0.8.4 |
| spesifikasi jalur | 0.10.3 | kambing hitam | 1.0.1 | pexpect | 4.8.0 |
| bantal | 11.1.0 | pipa | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pengaya | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic (perpustakaan Python untuk validasi data) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML (paket untuk memproses bahasa YAML dalam Python) | 6.0.2 |
| pyzmq | 26.2.0 | Merujuk | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | kaya | 13.9.4 |
| tali | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy (perpustakaan Python untuk komputasi ilmiah) | 1.15.1 |
| Seaborn (perpustakaan Python untuk visualisasi data) | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| Enam | 1.16.0 | smmap | 5.0.0 | Sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | alat penyaring sup | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | starlette | 0.46.2 |
| statsmodels (paket Python untuk pemodelan statistik) | 0.14.4 | strictyaml | 1.7.3 | kegigihan | 9.0.0 |
| selesai | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | Tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard (penjaga tipe) | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| ekstensi pengetikan (typing_extensions) | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| pembaruan otomatis tanpa pengawasan | 0.1 | templat URI | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | warna web | 24.11.1 | pengkodean web | 0.5.1 |
| websocket-klien | 1.8.0 | apa itu patch | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | terbungkus | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Perpustakaan R yang terinstal
Pustaka R diinstal dari cuplikan CRAN Pengelola Paket Posit pada 20-03-2025.
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| anak panah | 19.0.1 | askpass | 1.2.1 | pastikanbahwa | 0.2.1 |
| pemindahan fitur ke versi lama (backports) | 1.5.0 | dasar | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | sedikit | 4.6.0 | bit-64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | sepatu bot | 1.3-30 |
| menyeduh | 1.0-10 | Brio | 1.1.5 | sapu | 1.0.7 |
| bslib | 0.9.0 | cashmere | 1.1.0 | layanan panggilan | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | kronogram | 2.3-62 |
| kelas | 7.3-22 | CLI | 3.6.4 | pemangkas | 0.8.0 |
| jam dinding | 0.7.2 | kluster | 2.1.6 | codetools | 0.2-20 |
| ruang warna | 2.1-1 | commonmark | 1.9.5 | pengkompilasi | 4.4.2 |
| config | 0.3.2 | Bimbang | 1.2.0 | cpp11 | 0.5.2 |
| kriyon | 1.5.3 | kredensial | 2.0.2 | melengkung | 6.2.1 |
| data.table (sebuah paket untuk pengolahan data table) | 1.17.0 | kumpulan data | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | deskripsi | 1.4.3 | devtools | 2.4.5 |
| bagan | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.37 |
| pencahayaan turun | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | elipsis | 0.3.2 | menilai | 1.0.3 |
| penggemar | 1.0.6 | warna-warna | 2.1.2 | pemetaan cepat | 1.2.0 |
| fontawesome | 0.5.3 | untuk kucing | 1.0.0 | foreach (pengulangan untuk setiap elemen) | 1.5.2 |
| asing | 0.8-86 | bengkel pandai besi | 0.2.0 | fs | 1.6.5 |
| masa depan | 1.34.0 | menerapkan di masa depan | 1.11.3 | kumur | 1.5.2 |
| obat generik | 0.1.3 | Gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | variabel global | 0.16.3 | lem | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| Grafik | 4.4.2 | grDevices | 4.4.2 | kisi | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtabel | 0.3.6 | topi keras | 1.4.1 | tempat aman | 2.5.4 |
| lebih tinggi | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Pengiterasi | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | Pelabelan | 0.4.3 |
| nanti | 1.4.1 | rangka | 0.22-5 | lahar | 1.8.1 |
| siklus hidup | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | Massa | 7.3-60.0.1 |
| Matrix | 1.6-5 | memosankan | 2.0.1 | Metode | 4.4.2 |
| mgcv | 1.9-1 | pantomim | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | Agustus 2016 - Januari 2017 | openssl | 2.3.2 | paralel | 4.4.2 |
| secara paralel | 1.42.0 | pilar | 1.10.1 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pujian | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | ProsesX | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | Kemajuan | 1.2.3 |
| progresr | 0.15.1 | janji | 1.3.2 | proto | 1.0.0 |
| proksi | 0,4-27 | P.S. | 1.9.0 | menggeram lembut | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest (algoritma pembelajaran mesin) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | dapat direaksi | 0.4.4 |
| reactR | 0.6.1 | alat baca | 2.1.5 | readxl (membaca file Excel) | 1.4.5 |
| recipes | 1.2.0 | pertandingan ulang | 2.0.0 | pertandingan ulang 2 | 2.1.2 |
| pengontrol jarak jauh | 2.5.0 | contoh replikasi | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.5 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| timbangan / sisik | 1.3.0 | selektor | 0,4-2 | informasi sesi | 1.2.3 |
| bentuk | 1.4.6.1 | mengkilap | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.0 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spasial | 7.3-17 | garis lengkung | 4.4.2 | sqldf | 0,4-11 |
| SQUAREM | 2021.1 | statistik | 4.4.2 | statistik4 | 4.4.2 |
| string | 1.8.4 | stringr | 1.5.1 | bertahan hidup | 3.5-8 |
| gaya berani | 5.17.14.1 | Sistem | 3.4.3 | systemfonts | 1.2.1 |
| bahasa pemrograman Tcl/Tk | 4.4.2 | ujiitu | 3.2.3 | pemformatan teks | 1.0.0 |
| tibble | 3.2.1 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | perubahan jam | 0.3.0 | TanggalWaktu | 4041.110 |
| tinytex | 0.56 | perangkat | 4.4.2 | tzdb | 0.5.0 |
| urlchecker | 1.0.1 | gunakan ini | 3.1.0 | utf8 | 1.2.4 |
| Utilitas | 4.4.2 | UUID (Pengidentifikasi Unik Universal) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.5 |
| Waldo | 0.6.1 | kumis | 0.4.1 | dengan | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Pustaka Java dan Scala yang diinstal (versi kluster Scala 2.13)
| ID Kelompok | Identifikasi Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klien Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | AWS Java SDK untuk CloudHSM | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfigurasi SDK Java untuk AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-impor-ekspor | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Pembelajaran Mesin | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks (SDK Java untuk OpsWorks) | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) | 1.12.638 |
| com.amazonaws | SDK Java untuk Storage Gateway AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Dukungan | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | aliran | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | bayangan-kriogenik | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.5.1 |
| com.fasterxml.jackson.core | Jackson Annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | kafein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | sistem_asli-java | 1.1 |
| com.github.fommil.netlib | sistem_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-penduduk asli |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | Annotasi yang rentan terhadap kesalahan | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | kegagalan akses | 1.0.2 |
| com.google.guava | jambu biji | 33.4.0-jre |
| com.google.guava | masa depan yang dapat didengarkan | 9999.0-kosong-untuk-menghindari-konflik-dengan-guava |
| com.google.j2objc | j2objc-anotasi | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | pembuat profil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (algoritma kompresi) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| koleksi umum | koleksi umum | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| unggah berkas pada commons | unggah berkas pada commons | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (perpustakaan Java untuk fungsi pencatatan) | commons-logging (perpustakaan Java untuk fungsi pencatatan) | 1.1.3 |
| kolam umum | kolam umum | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Tidak peduli | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.0 |
| io.dropwizard.metrics | metrik dan anotasi | 4.2.30 |
| io.dropwizard.metrics | inti metrik | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | pengukuran-pemeriksaan kesehatan | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrik-jmx | 4.2.30 |
| io.dropwizard.metrics | metrik-json | 4.2.30 |
| io.dropwizard.metrics | metrik-jvm | 4.2.30 |
| io.dropwizard.metrics | metrik-servlet | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | Netty Buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-kodek-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | Kelas netty-tcnative | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll (kelas transportasi netty - epoll) | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_umum | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway (gateway pendorong sederhana) | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_pelacakan_otel_agen | 0.16.1-databricks |
| io.prometheus.jmx | pengumpul | 0.18.0 |
| jakarta.anotasi | jakarta.anotasi-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | Transaction-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | mentimun acar | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| jaring.bunga salju | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_gabungan_semua | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | format tanda panah | 18.2.0 |
| org.apache.arrow | inti-memori-panah | 18.2.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.2.0 |
| org.apache.arrow | arrow-memori-netty-penyangga-tambalan | 18.2.0 |
| org.apache.arrow | arrow-vector | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-koleksi4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | Commons-Math3 | 3.6.1 |
| org.apache.commons | commons-text (teks umum) | 1.13.0 |
| org.apache.curator | kurator dan klien | 5.7.1 |
| org.apache.curator | kerangka kerja kurator | 5.7.1 |
| org.apache.curator | kurasi resep | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | pertandingan derbi | 10.14.2.0 |
| org.apache.hadoop | lingkungan kerja klien Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline (antarmuka perintah untuk Apache Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | API penyimpanan hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) | 2.3.10 |
| org.apache.hive.shims | Pengatur Jadwal Hive Shims | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | tanaman anggur | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json (pola tata letak JSON di log4j) | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotasi penonton | 0.13.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.9.3 |
| org.apache.zookeeper | penjaga kebun binatang-jute | 3.9.3 |
| org.checkerframework | pemeriksa kualitas | 3.43.0 |
| org.codehaus.janino | Pengompilasi Umum | 3.0.16 |
| org.codehaus.janino | Januari | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | lanjutan dermaga | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http (protokol HTTP untuk server Jetty) | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | keamanan jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Aplikasi web Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klien | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-pemindai lokasi | 2.6.1 |
| org.glassfish.hk2 | hk2-utilitas | 2.6.1 |
| org.glassfish.hk2 | osgi-penanda-sumber-daya | 1.0.3 |
| org.glassfish.hk2.external | aopalliance (dikemas ulang) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-inti | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey biasa | 2.41 |
| org.glassfish.jersey.core | Jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | Hibernate Validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotasi | 17.0.0 |
| org.jline | Jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | antarmuka pengujian | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | kompatibel dengan ScalaTest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Tip
Untuk melihat catatan rilis untuk versi Databricks Runtime yang telah mencapai akhir masa dukungan (EoS), lihat Catatan rilis Databricks Runtime yang telah mencapai akhir masa dukungan. Versi EoS Databricks Runtime telah dihentikan dan mungkin tidak diperbarui.