Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 16.0, didukung oleh Apache Spark 3.5.0.
Databricks merilis versi ini pada November 2024.
Nota
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.
Perubahan perilaku
- Perubahan besar: JDK 17 sekarang menjadi default
- Perubahan besar: RStudio yang dihosting tidak lagi didukung
-
Perubahan signifikan: Penghapusan dukungan untuk mengubah
byte,short,intdanlongke jenis yang lebih luas - Penguraian pola regex yang benar dengan negasi dalam pengelompokan karakter berlapis
-
Meningkatkan deteksi kecocokan duplikat di Delta Lake
MERGE - Metode instalasi pustaka kluster tidak dapat lagi diubah
- Batas waktu default dua jam untuk penginstalan pustaka cakupan kluster
-
Menginstal pustaka dari DBFS dan mengatur Spark Conf
spark.databricks.driver.dbfsLibraryInstallationAllowedtelah dinonaktifkan -
Fungsionalitas
addArtifact()sekarang konsisten di seluruh jenis komputasi - Aturan backticks diberlakukan dengan benar untuk pengidentifikasi utama dengan karakter khusus
Perubahan signifikan: JDK 17 sekarang menjadi bawaan
Di Databricks Runtime 16.0 ke atas, versi JDK default dialihkan dari JDK 8 ke JDK 17. Perubahan ini dilakukan karena penghentian bertahap yang direncanakan dan akhir dukungan untuk JDK 8. Hal ini memengaruhi hal-hal berikut:
- Kode Java yang berjalan pada komputasi Azure Databricks harus kompatibel dengan Java 17.
- Kode Scala yang berjalan di notebook atau komputasi Azure Databricks harus kompatibel dengan Java 17.
- Pustaka Java dan Scala yang diinstal pada komputasi harus kompatibel dengan Java 17.
- Versi klien metastore dari Apache Hive di bawah 2.x. Mengatur konfigurasi
spark.sql.hive.metastore.versionSpark ke versi yang lebih rendah dari 2.x akan menyebabkan masalah kompatibilitas dengan Java 17 dan kegagalan koneksi ke metastore Apache Hive. Databricks merekomendasikan peningkatan Apache Hive ke versi di atas 2.0.0.
Jika Anda perlu kembali ke Java 8, tambahkan yang berikut ini ke variabel lingkungan Spark saat Anda mengonfigurasi komputasi Azure Databricks Anda:
JNAME=zulu8-ca-amd64
Jika Anda menggunakan instans ARM, gunakan hal berikut:
JNAME=zulu8-ca-arm64
Untuk mempelajari selengkapnya tentang menentukan versi JDK dengan komputasi Azure Databricks, lihat Membuat kluster dengan versi JDK tertentu.
Untuk bantuan dalam memigrasikan kode Anda dari Java 8, lihat panduan berikut:
Perubahan mendasar: RStudio yang dihosting mencapai masa akhir
Dengan rilis ini, RStudio Server yang dihosting Databricks adalah akhir masa pakai dan tidak tersedia di ruang kerja Azure Databricks apa pun yang menjalankan Databricks Runtime 16.0 ke atas. Untuk mempelajari selengkapnya dan melihat daftar alternatif untuk RStudio, lihat Menyambungkan ke Server RStudio yang dihosting Databricks.
Perubahan besar: Penghapusan dukungan untuk mengubah jenis byte, short, int dan long ke jenis yang lebih luas
Di Databricks Runtime 15.4.3 ke atas, perubahan jenis data berikut tidak dapat lagi diterapkan ke tabel dengan fitur pelebar jenis diaktifkan:
-
byte,short,intdanlongkedecimal. -
byte,short, danintkedouble.
Perubahan ini dilakukan untuk memastikan perilaku yang konsisten di seluruh tabel Delta dan Apache Iceberg. Untuk mempelajari selengkapnya tentang pelebaran tipe, lihat Pelebaran tipe.
Penguraian pola regex yang tepat dengan negasi dalam pengelompokan karakter bertingkat
Rilis ini mencakup perubahan untuk mendukung penguraian pola regex yang benar dengan negasi dalam pengelompokan karakter berlapis. Misalnya, [^[abc]] akan diproses sebagai "karakter apa pun yang BUKAN salah satu dari 'abc'".
Selain itu, perilaku Photon tidak konsisten dengan Spark untuk kelas karakter berlapis. Pola regex yang berisi kelas karakter berlapis tidak akan lagi menggunakan Photon, dan sebaliknya akan menggunakan Spark. Kelas karakter bersarang adalah pola yang berisi tanda kurung siku di dalam tanda kurung siku, seperti [[a-c][1-3]].
Meningkatkan deteksi kecocokan duplikat di Delta Lake MERGE
Pada Databricks Runtime 15.4 LTS dan versi yang lebih rendah dari itu, operasi MERGE akan gagal jika lebih dari satu baris di tabel sumber cocok dengan baris yang sama di tabel target berdasarkan syarat yang ditentukan dalam klausa MERGEON. Dalam Databricks Runtime 16.0 ke atas, MERGE juga mempertimbangkan kondisi yang ditentukan dalam WHEN MATCHED klausul. Lihat Upsert ke dalam tabel Delta Lake menggunakan operasi merge.
Metode pemasangan pustaka klaster tidak bisa lagi diubah
Konfigurasi Spark spark.databricks.libraries.enableSparkPyPI, spark.databricks.libraries.enableMavenResolution, dan spark.databricks.libraries.enableCRANResolutionnow sekarang memiliki nilai default true dan tidak dapat ditimpa.
Batas waktu default dua jam untuk penginstalan pustaka cakupan kluster
Di Databricks Runtime 16.0 ke atas, penginstalan pustaka cakupan kluster memiliki batas waktu default dua jam. Penginstalan pustaka yang memakan waktu lebih lama dari batas waktu ini akan gagal, dan penginstalan dihentikan. Saat mengonfigurasi kluster, Anda dapat mengubah periode batas waktu menggunakan konfigurasi spark.databricks.driver.clusterLibraryInstallationTimeoutSecSpark .
Menginstal pustaka dari DBFS dan mengatur spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed dinonaktifkan
Di Databricks Runtime 16.0 ke atas, menginstal pustaka dari DBFS sepenuhnya dinonaktifkan. Perubahan ini dilakukan untuk meningkatkan keamanan pustaka di ruang kerja Databricks. Selain itu, dalam Databricks Runtime 16.0 ke atas, Anda tidak dapat lagi menggunakan konfigurasi spark.databricks.driver.dbfsLibraryInstallationAllowedSpark .
Fungsionalitas addArtifact() sekarang konsisten di seluruh jenis komputasi
Dengan rilis ini, arsip secara otomatis dibongkar saat Anda menggunakan addArtifact(archive = True) untuk menambahkan dependensi ke komputasi Azure Databricks bersama atau tanpa server. Perubahan ini membuat perilaku addArtifact(archive = True) pada jenis komputasi ini konsisten dengan komputasi khusus (sebelumnya komputasi pengguna tunggal), yang sudah mendukung pembongkaran arsip secara otomatis.
Aturan penggunaan tanda balik diberlakukan dengan tepat untuk pengidentifikasi yang mengandung karakter khusus.
Dengan rilis ini, pengidentifikasi utama dengan karakter khusus dalam pernyataan GRANT, DENY, dan REVOKE sekarang akan menghasilkan kesalahan jika tidak diapit dalam tanda backtick.
Fitur dan peningkatan baru
-
Peningkatan keandalan dalam pemuatan ulang modul Python yang telah dimodifikasi dengan
autoreload - Dukungan Avro untuk skema rekursif
- fungsi to_avro dan from_avro
- Dukungan lebih luas untuk Confluent Schema Registry untuk Avro
- Memaksa pengelompokan ulang pada tabel dengan pengelompokan dinamis
- API Delta untuk Python dan Scala sekarang mendukung kolom identitas
- Kontrol akses halus pada komputasi khusus (sebelumnya komputasi pengguna tunggal) umumnya tersedia
- Membuat tabel berkluster cair selama penulisan streaming
- Dukungan untuk klausa LENGKAP OPTIMIZE
- Dukungan untuk opsi spesifikasi WITH di INSERT dan referensi tabel
- Fungsi SQL baru
- Mengaktifkan evolusi skema otomatis saat menggabungkan data ke dalam tabel Delta
Pemuatan ulang modul Python yang telah dimodifikasi menjadi lebih andal dengan adanya peningkatan autoreload
Di Databricks Runtime 16.0 ke atas, pembaruan ekstensi autoreload meningkatkan keamanan dan keandalan untuk memuat ulang modul Python yang dimodifikasi yang diimpor dari file ruang kerja. Dengan perubahan ini, autoreload, jika memungkinkan, hanya memuat ulang bagian modul yang telah berubah alih-alih seluruh modul. Selain itu, Azure Databricks sekarang secara otomatis menyarankan penggunaan ekstensi autoreload jika modul telah berubah sejak impor terakhirnya. Lihat Autoreload untuk modul-modul Python.
Dukungan Avro untuk skema rekursif
Anda sekarang dapat menggunakan recursiveFieldMaxDepth opsi dengan from_avro fungsi dan avro sumber data. Opsi ini mengatur kedalaman maksimum untuk rekursi skema pada sumber data Avro. Lihat Membaca dan menulis data Avro streaming.
fungsi to_avro dan from_avro
Fungsi to_avro dan from_avro memungkinkan konversi jenis SQL ke data biner Avro dan kembali.
Dukungan lebih untuk Confluent Schema Registry dan Avro
Azure Databricks sekarang mendukung referensi skema Avro dengan Confluent Schema Registry. Lihat Pengautentikasian ke Registri Skema Confluent Eksternal.
Memaksa pengelompokan ulang pada tabel dengan pengelompokan cairan
Dalam Databricks Runtime 16.0 ke atas, Anda dapat menggunakan sintaks OPTIMIZE FULL untuk memaksa semua rekaman dikelompokkan kembali dalam tabel dengan fitur liquid clustering diaktifkan. Lihat Force reclustering untuk semua rekaman.
API Delta untuk Python dan Scala sekarang mendukung kolom identitas
Sekarang Anda dapat menggunakan API Delta untuk Python dan Scala untuk membuat tabel dengan kolom identitas. Lihat Menggunakan kolom identitas di Delta Lake.
Kontrol akses halus pada komputasi khusus (sebelumnya komputasi pengguna tunggal) umumnya tersedia
Dalam Databricks Runtime 16.0 ke atas, kontrol akses mendetair pada komputasi khusus umumnya tersedia. Di ruang kerja yang diaktifkan untuk komputasi tanpa server, jika kueri dijalankan pada komputasi yang didukung seperti komputasi khusus dan kueri mengakses salah satu objek berikut, sumber daya komputasi meneruskan kueri ke komputasi tanpa server untuk menjalankan pemfilteran data:
- Tampilan yang didefinisikan pada tabel-tabel di mana pengguna tidak memiliki izin
SELECT. - Tampilan dinamis.
- Tabel dengan filter baris atau masker kolom diterapkan.
- Tampilan materialisasi dan tabel streaming
Membuat tabel berkluster cair selama penulisan streaming
Anda sekarang dapat menggunakan clusterBy untuk mengaktifkan pengelompokan cair saat membuat tabel baru dengan penulisan Streaming Terstruktur. Lihat Mengaktifkan pengklusteran cairan.
Dukungan untuk klausul FULL OPTIMIZE
Databricks Runtime 16.0 mendukung klausa OPTIMIZE LENGKAP. Klausa ini mengoptimalkan semua rekaman dalam tabel yang menggunakan pengklusteran cairan, termasuk data yang mungkin sebelumnya telah diklusterkan.
Dukungan untuk spesifikasi opsi WITH dalam INSERT dan referensi ke tabel
Databricks Runtime 16.0 mendukung spesifikasi opsi untuk referensi tabel dan nama tabel dalam INSERT pernyataan yang dapat digunakan untuk mengontrol perilaku sumber data.
Fungsi SQL baru
Fungsi SQL berikut ditambahkan dalam Databricks Runtime 16.0:
-
Fungsi ini adalah versi url_decode yang toleran terhadap kesalahan. Fungsi ini mengembalikan
NULLjika input bukan string yang dikodekan URL yang valid. -
Jika ekspresi input ke
zeroifnull()fungsi adalahNULL, maka fungsi mengembalikan 0. Jika tidak, nilai ekspresi input dikembalikan. -
Mengembalikan
NULLjika input adalah 0, atau mengembalikan input tersebut jika bukan 0. Jika ekspresi input kenullifzero()fungsi adalah 0, maka fungsi mengembalikanNULL. Jika ekspresi input bukan 0, nilai ekspresi input dikembalikan
Mengaktifkan evolusi skema otomatis saat menggabungkan data ke dalam tabel Delta
Rilis ini menambahkan dukungan untuk anggota withSchemaEvolution() dari kelas DeltaMergeBuilder. Gunakan withSchemaEvolution() untuk mengaktifkan evolusi skema otomatis selama MERGE operasi. Contohnya, mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}.
Perubahan lainnya
SparkR sekarang tidak digunakan lagi
Dalam Databricks Runtime 16.0 ke atas, SparkR di Databricks tidak direkomendasikan lagi sebagai persiapan untuk penghentiannya dalam rilis Spark 4 mendatang. Lihat utas Apache Spark Deprecate SparkR.
Databricks merekomendasikan penggunaan sparklyr sebagai gantinya.
Databricks Runtime 16.0 tidak didukung dengan PVC
Databricks Runtime 16.0 tidak didukung oleh Databricks Private Virtual Cloud (PVC). Anda harus menggunakan Databricks Runtime 15.4 atau yang lebih baru dengan semua rilis PVC.
Pemulihan kesalahan perangkat lunak
Auto Loader sekarang memulihkan tipe catatan Avro dengan skema yang kosong
Saat memuat file Avro ke dalam tabel Delta menggunakan Auto Loader, record jenis dalam file yang memiliki skema kosong sekarang ditambahkan ke kolom data yang diselamatkan. Karena Anda tidak dapat memasukkan tipe data kompleks kosong ke dalam tabel Delta, hal ini mengatasi masalah dalam memuat sejumlah file Avro. Untuk mempelajari selengkapnya tentang data yang diselamatkan, lihat Apa itu kolom data yang diselamatkan?.
Perbaiki untuk kesalahan menulis tanda waktu dengan zona waktu yang berisi offset kedua.
Rilis ini memperbaiki bug yang memengaruhi beberapa tanda waktu dengan zona waktu yang berisi offset kedua. Bug ini menyebabkan detik dihilangkan saat menulis ke JSON, XML, atau CSV, yang mengarah ke nilai tanda waktu yang salah.
Untuk kembali ke perilaku sebelumnya, gunakan opsi berikut saat menulis ke salah satu format yang terpengaruh: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]").
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- azure-core dari 1.30.2 hingga 1.31.0
- azure-storage-blob dari 12.19.1 hingga 12.23.0
- azure-storage-file-datalake dari 12.14.0 hingga 12.17.0
- hitam dari 23.3.0 hingga 24.4.2
- blinker dari 1,4 hingga 1.7.0
- boto3 dari 1.34.39 ke 1.34.69
- botocore dari 1.34.39 ke 1.34.69
- sertifikasi dari 22/7/2023 hingga 2/6/2024
- cffi dari 1.15.1 hingga 1.16.0
- klik dari 8.0.4 ke 8.1.7
- comm dari 0.1.2 ke 0.2.1
- contourpy dari 1.0.5 ke 1.2.0
- kriptografi dari 41.0.3 hingga 42.0.5
- Cython dari 0.29.32 ke 3.0.11
- databricks-sdk dari 0.20.0 hingga 0.30.0
- dbus-python dari 1.2.18 ke 1.3.2
- filelock dari 3.13.4 ke 3.15.4
- fonttools dari 4.25.0 hingga 4.51.0
- GitPython dari 3.1.43 ke 3.1.37
- google-api-core dari 2.18.0 hingga 2.20.0
- google-auth dari 2.31.0 hingga 2.35.0
- google-cloud-storage dari 2.17.0 hingga 2.18.2
- google-crc32c dari 1.5.0 hingga 1.6.0
- google-resumable-media dari 2.7.1 hingga 2.7.2
- googleapis-common-protos dari 1.63.2 hingga 1.65.0
- httplib2 dari 0.20.2 ke 0.20.4
- idna dari 3.4 hingga 3.7
- ipykernel dari 6.25.1 ke 6.28.0
- ipython dari 8.15.0 ke 8.25.0
- jedi dari 0.18.1 hingga 0.19.1
- jmespath dari 0.10.0 hingga 1.0.1
- joblib dari 1.2.0 hingga 1.4.2
- jupyter_client dari 7.4.9 ke 8.6.0
- jupyter_core dari 5.3.0 ke 5.7.2
- launchpadlib dari 1.10.16 ke 1.11.0
- lazr.restfulclient dari 0.14.4 hingga 0.14.6
- matplotlib dari 3.7.2 ke 3.8.4
- mlflow-skinny dari 2.11.4 hingga 2.15.1
- more-itertools dari 8.10.0 hingga 10.3.0
- mypy-extensions dari 0.4.3 ke 1.0.0
- nest-asyncio dari 1.5.6 hingga 1.6.0
- numpy dari 1.23.5 hingga 1.26.4
- oauthlib dari 3.2.0 ke 3.2.2
- kemasan dari 23.2 hingga 24.1
- patsy dari 0.5.3 hingga 0.5.6
- pembaruan pip dari versi 23.2.1 ke 24.2
- plotly dari 5.9.0 ke 5.22.0
- prompt-toolkit dari 3.0.36 hingga 3.0.43
- pyarrow dari 14.0.1 hingga 15.0.2
- pydantic dari 1.10.6 ke 2.8.2
- PyGObject dari 3.42.1 ke 3.48.2
- PyJWT dari 2.3.0 ke 2.7.0
- pyodbc dari 4.0.38 ke 5.0.1
- python-dateutil dari 2.8.2 hingga 2.9.0.post0
- python-lsp-jsonrpc dari 1.1.1 hingga 1.1.2
- pytz dari 2022.7 hingga 2024.1
- PyYAML dari 6.0 hingga 6.0.1
- pyzmq dari 23.2.0 ke 25.1.2
- permintaan dari 2.31.0 hingga 2.32.2
- scikit-learn dari 1.3.0 hingga 1.4.2
- scipy dari 1.11.1 hingga 1.13.1
- seaborn dari 0.12.2 hingga 0.13.2
- setuptools dari 68.0.0 hingga 74.0.0
- smmap dari 5.0.1 ke 5.0.0
- sqlparse dari 0.5.0 hingga 0.5.1
- statsmodel dari 0.14.0 hingga 0.14.2
- tornado dari 6.3.2 ke 6.4.1
- traitlets dari versi 5.7.1 hingga 5.14.3
- typing_extensions dari 4.10.0 hingga 4.11.0
- ujson dari 5.4.0 ke 5.10.0
- virtualenv dari 20.24.2 hingga 20.26.2
- wheel dari 0.38.4 hingga 0.43.0
- zipp dari 3.11.0 ke 3.17.0
- Pustaka R yang ditingkatkan:
- panah dari 14.0.0.2 hingga 16.1.0
- backport dari 1.4.1 hingga 1.5.0
- basis dari 4.3.2 ke 4.4.0
- bitops: dari 1,0-7 hingga 1,0-8
- proses boot dari versi 1.3-28 ke versi 1.3-30
- brio dari 1.1.4 ke 1.1.5
- broom dari 1.0.5 hingga 1.0.6
- bslib dari 0.6.1 ke 0.8.0
- cachem dari 1.0.8 ke 1.1.0
- callr dari 3.7.3 ke 3.7.6
- cli dari 3.6.2 ke 3.6.3
- jam dari 0.7.0 hingga 0.7.1
- kluster dari 2.1.4 hingga 2.1.6
- codetools dari 0.2-19 hingga 0.2-20
- colorspace dari 2,1-0 hingga 2,1-1
- compiler dari 4.3.2 ke 4.4.0
- krayon dari 1.5.2 hingga 1.5.3
- pembaruan versi curl dari 5.2.0 ke 5.2.1
- data.table dari 1.15.0 hingga 1.15.4
- himpunan data dari 4.3.2 hingga 4.4.0
- DBI dari 1.2.1 hingga 1.2.3
- dbplyr dari 2.4.0 ke 2.5.0
- digest dari 0.6.34 ke 0.6.36
- downlit dari 0.4.3 ke 0.4.4
- evaluasi dari 0,23 hingga 0.24.0
- jauh dari 2.1.1 ke 2.1.2
- fastmap dari 1.1.1 hingga 1.2.0
- asing dari 0,8-85 ke 0,8-86
- fs dari 1.6.3 ke 1.6.4
- di masa mendatang dari 1.33.1 hingga 1.34.0
- future.apply dari 1.11.1 hingga 1.11.2
- gert dari 2.0.1 hingga 2.1.0
- ggplot2 dari 3.4.4 ke 3.5.1
- gh dari 1.4.0 ke 1.4.1
- global dari 0,16,2 ke 0,16,3
- grafik dari 4.3.2 hingga 4.4.0
- grDevices dari 4.3.2 hingga 4.4.0
- grid dari 4.3.2 hingga 4.4.0
- gt dari 0.10.1 ke 0.11.0
- gtable dari versi 0.3.4 ke versi 0.3.5
- hardhat dari 1.3.1 hingga 1.4.0
- lebih tinggi dari 0,10 hingga 0,11
- htmltool dari 0.5.7 hingga 0.5.8.1
- httpuv dari 1.6.14 ke 1.6.15
- httr2 dari 1.0.0 hingga 1.0.2
- ipred dari 0,9-14 ke 0,9-15
- KernSmooth dari 2,23-21 ke 2,23-22
- knitr dari 1,45 hingga 1,48
- kisi dari 0,21-8 hingga 0,22-5
- lava dari 1.7.3 hingga 1.8.0
- markdown dari 1.12 ke 1.13
- MASSA dari 7.3-60 ke 7.3-60.0.1
- Matriks dari 1.5-4.1 ke 1.6-5
- metode dari 4.3.2 hingga 4.4.0
- mgcv dari 1,8-42 ke 1,9-1
- mlflow dari 2.10.0 ke 2.14.1
- Munsell dari 0.5.0 hingga 0.5.1
- nlme dari 3,1-163 ke 3,1-165
- openssl dari 2.1.1 ke 2.2.0
- paralel dari 4.3.2 hingga 4.4.0
- secara paralel dari 1.36.0 hingga 1.38.0
- pkgbuild dari 1.4.3 ke 1.4.4
- pkgdown dari 2.0.7 ke 2.1.0
- pkgload dari 1.3.4 hingga 1.4.0
- processx dari 3.8.3 hingga 3.8.4
- prodlim dari 2023.08.28 hingga 2024.06.25
- janji dari 1.2.1 hingga 1.3.0
- ps dari 1.7.6 ke 1.7.7
- ragg dari 1.2.7 ke 1.3.2
- Rcpp dari 1.0.12 ke 1.0.13
- RcppEigen dari 0.3.3.9.4 ke 0.3.4.0.0
- reactR dari 0.5.0 hingga 0.6.0
- resep dari 1.0.9 hingga 1.1.0
- pembaruan dari 2.4.2.1 ke 2.5.0
- reprex dari 2.1.0 ke 2.1.1
- rlang dari 1.1.3 ke 1.1.4
- rmarkdown dari 2,25 ke 2,27
- roxygen2 dari 7.3.1 ke 7.3.2
- rpart dari 4.1.21 ke 4.1.23
- RSQLite dari 2.3.5 ke 2.3.7
- rstudioapi dari 0.15.0 ke 0.16.0
- Versi rvest diperbarui dari 1.0.3 menjadi 1.0.4
- sass dari 0.4.8 hingga 0.4.9
- bentuk dari 1.4.6 hingga 1.4.6.1
- mengkilap dari 1.8.0 hingga 1.9.1
- sparklyr dari 1.8.4 ke 1.8.6
- spasial mulai dari 7,3-15 hingga 7,3-17
- spline dari 4.3.2 hingga 4.4.0
- statistik dari 4.3.2 hingga 4.4.0
- stats4 dari 4.3.2 hingga 4.4.0
- stringi dari 1.8.3 hingga 1.8.4
- bertahan hidup dari 3,5-5 hingga 3,6-4
- swagger dari 3.33.1 ke 5.17.14.1
- systemfonts dari 1.0.5 hingga 1.1.0
- tcltk dari 4.3.2 ke 4.4.0
- testthat dari 3.2.1 ke 3.2.1.1
- textshaping dari 0.3.7 ke 0.4.0
- tidyselect dari 1.2.0 hingga 1.2.1
- tinytex dari 0,49 hingga 0,52
- alat dari 4.3.2 hingga 4.4.0
- usethis versi 2.2.2 hingga 3.0.0
- utils dari 4.3.2 ke 4.4.0
- uuid dari 1.2-0 ke 1.2-1
- V8 dari 4.4.1 hingga 4.4.2
- withr dari 3.0.0 hingga 3.0.1
- xfun dari 0,41 hingga 0,46
- xopen dari 1.0.0 hingga 1.0.1
- yaml dari 2.3.8 hingga 2.3.10
- Pustaka Java yang ditingkatkan:
- com.amazonaws.aws-java-sdk-autoscaling dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cloudformation dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cloudfront dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cloudhsm dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cloudsearch dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cloudtrail dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatch dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatchmetrics dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-codedeploy dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cognitoidentity dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-cognitosync dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-config dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-core dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-datapipeline dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-directconnect dari 1.12.610 ke 1.12.638
- com.amazonaws.aws-java-sdk-directory dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-dynamodb dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-ec2 dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-ecs dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-efs dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-elasticache dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-elasticbeanstalk dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-elasticloadbalancing dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-elastictranscoder dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-emr dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-glacier dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-glue dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-iam dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-importexport dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-kinesis dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-kms dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-lambda dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-logs dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-machinelearning dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-opsworks dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-rds dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-redshift dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-route53 dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-s3 dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-ses dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-simpledb dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-simpleworkflow dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-sns dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-sqs dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-ssm dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-storagegateway dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-sts dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-support dari 1.12.610 hingga 1.12.638
- com.amazonaws.aws-java-sdk-workspaces dari 1.12.610 hingga 1.12.638
- com.amazonaws.jmespath-java dari 1.12.610 hingga 1.12.638
- com.google.protobuf.protobuf-java dari 2.6.1 ke 3.25.1
- io.airlift.aircompressor dari 0,25 hingga 0,27
- io.delta.delta-sharing-client_2.12 dari 1.1.3 hingga 1.2.0
- io.netty.netty-all dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-buffer dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-codec dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-codec-http dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-codec-http2 dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-codec-socks dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-common dari 4.1.96.Final hingga 4.1.108.Final
- Versi io.netty.netty-handler dari 4.1.96.Final menjadi 4.1.108.Final
- io.netty.netty-handler-proxy dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-resolver dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-transport dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-transport-classes-epoll dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-transport-classes-kqueue dari 4.1.96.Final ke 4.1.108.Final
- io.netty.netty-transport-native-epoll dari 4.1.96.Final-linux-x86_64 ke 4.1.108.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue dari 4.1.96.Final-osx-x86_64 ke 4.1.108.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common dari 4.1.96.Final ke 4.1.108.Final
- org.apache.ivy.ivy dari 2.5.1 ke 2.5.2
- org.apache.zookeeper.zookeeper dari 3.6.3 hingga 3.9.2
- org.apache.zookeeper.zookeeper-jute dari 3.6.3 hingga 3.9.2
- org.rocksdb.rocksdbjni dari 8.11.4 hingga 9.2.1
- org.scalactic.scalactic_2.12 dari 3.2.15 ke 3.2.16
- org.scalatest.scalatest-compatible dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-core_2.12 dari 3.2.15 hingga 3.2.16
- Pembaruan org.scalatest.scalatest-diagrams_2.12 dari versi 3.2.15 ke 3.2.16
- org.scalatest.scalatest-featurespec_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-flatspec_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-freespec_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-funspec_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-funsuite_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-matchers-core_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-mustmatchers_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-propspec_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-refspec_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-shouldmatchers_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest-wordspec_2.12 dari 3.2.15 hingga 3.2.16
- org.scalatest.scalatest_2.12 dari 3.2.15 ke 3.2.16
Apache Spark
Databricks Runtime 16.0 mencakup Apache Spark 3.5.0. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 15.4 LTS, serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:
- [SPARK-49093] [DBRRM-1371] Membatalkan “[SC-172958][sql] GROUP BY dengan MapType nes...
- [SPARK-49898] [DBRRM-1282][sc-178410] Perbaiki dokumentasi dan default untuk pengaturan pencatatan akumulator metrik tugas pada log peristiwa dari SPARK-42204
- [SPARK-49743] [ES-1260022][behave-157][SC-177475][sql] OptimizeCsvJsonExpr tidak boleh mengubah bidang skema saat memangkas GetArrayStructFields
- [SPARK-49816] [SC-177896][sql] Seharusnya hanya memperbarui out-going-ref-count untuk relasi CTE luar yang direferensikan
- [SPARK-48939] [SC-177022][sc-172766][AVRO] Dukungan membaca Avro dengan referensi skema rekursif
- [SPARK-49688] [SC-177468][es-1242349][CONNECT] Perbaiki perlombaan data antara rencana interupsi dan eksekusi
- [SPARK-49771] [SC-177466][python] Meningkatkan kesalahan UDF Pandas Scalar Iter saat baris output melebihi baris input
- [SPARK-48866] [SC-170772][sql] Perbaiki petunjuk set karakter yang valid dalam pesan kesalahan INVALID_PARAMETER_VALUE.CHARSET
- [SPARK-48195] [FIXFORWARD][sc-177267][CORE] Simpan dan gunakan kembali RDD/Broadcast yang dibuat oleh SparkPlan
- [SPARK-49585] [SAMBUNGKAN] Ganti peta eksekusi di SessionHolder dengan set operationID
- [SPARK-49211] [SC-174257][sql] V2 Catalog juga dapat mendukung sumber data bawaan
- [SPARK-49684] Meminimalkan masa pakai kunci pemulihan sesi
- [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPARK-48291] Kerangka kerja log terstruktur di sisi java
- [SPARK-48857] [SC-170661][sql] Membatasi charset di CSVOptions
- [SPARK-49152] [SC-173690][sql] V2SessionCatalog harus menggunakan V2Command
- [SPARK-42846] [SC-176588][sql] Hapus kondisi kesalahan _LEGACY_ERROR_TEMP_2011
- [SPARK-48195] [SC-177267][core] Simpan dan gunakan kembali RDD/Siaran yang dibuat oleh SparkPlan
- [SPARK-49630] [SC-177379][ss] Tambahkan opsi rata untuk memproses jenis pengumpulan dengan pembaca sumber data status
- [SPARK-49699] [SC-177154][ss] Nonaktifkan PruneFilters untuk beban kerja streaming
- [SPARK-48781] [SC-175282][sql] Tambahkan API Katalog untuk memuat prosedur tersimpan
- [SPARK-49667] [SC-177068][sql] Melarang kolase CS_AI dengan ekspresi yang menggunakan StringSearch
- [SPARK-49737] [SC-177207][sql] Nonaktifkan bucketing pada kolom yang dikolasi dalam jenis kompleks
- [SPARK-48712] [SC-169794][sql] Peningkatan Perf untuk pengodean dengan nilai kosong atau charset UTF-8
- [SPARK-49038] [SC-173933][sql] SQLMetric harus melaporkan nilai mentah dalam peristiwa pembaruan akumulator
- [SPARK-48541] [SC-169066][core] Tambahkan kode keluar baru untuk eksekutor yang dimatikan oleh TaskReaper
- [SPARK-48774] [SC-170138][sql] Gunakan SparkSession di SQLImplicits
-
[SPARK-49719] [SC-177139][sql] Memungkinkan
UUIDdanSHUFFLEmenerima bilangan bulatseed -
[SPARK-49713] [SC-177135][python][CONNECT] Buat fungsi
count_min_sketchmenerima argumen angka - [SPARK-47601] [SC-162499][graphx] Graphx: Memigrasikan log dengan variabel ke kerangka kerja pengelogan terstruktur
- [SPARK-49738] [SC-177219][sql] Berakhir dengan perbaikan bug
- [SPARK-48623] [SC-170822][core] Migrasi pengelogan terstruktur [Bagian 3]
- [SPARK-49677] [SC-177148][ss] Pastikan bahwa file changelog ditulis saat commit dan bendera forceSnapshot juga diatur ulang
- [SPARK-49684] [SC-177040][connect] Hapus kunci global dari manajer sesi dan eksekusi
- [SPARK-48302] [SC-168814][python] Mempertahankan null dalam kolom peta di Tabel PyArrow
- [SPARK-48601] [SC-169025][sql] Berikan pesan kesalahan yang lebih ramah pengguna saat mengatur nilai null untuk Opsi JDBC
- [SPARK-48635] [SC-169263][sql] Menetapkan kelas untuk menggabungkan kesalahan jenis dan kesalahan gabungan as-of
- [SPARK-49673] [SC-177032][connect] Tingkatkan CONNECT_GRPC_ARROW_MAX_BATCH_SIZE menjadi 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
-
[SPARK-49693] [SC-177071][python][CONNECT] Perbaiki representasi string
timedelta -
[SPARK-49687] [SC-176901][sql] Penundaan penyortiran di
validateAndMaybeEvolveStateSchema -
[SPARK-49718] [SC-177112][ps] Beralih plot
Scatterke data sampel - [SPARK-48472] [SC-169044][sql] Aktifkan ekspresi refleksi dengan string yang disusun
- [SPARK-48484] [SC-167484][sql] Perbaikan: V2Write menggunakan TaskAttemptId yang sama untuk berbagai upaya tugas
- [SPARK-48341] [SC-166560][connect] Izinkan plugin menggunakan QueryTest dalam pengujian mereka
-
[SPARK-42252] [SC-168723][core] Tambahkan
spark.shuffle.localDisk.file.output.bufferdanspark.shuffle.unsafe.file.output.bufferakan tidak digunakan lagi - [SPARK-48314] [SC-166565][ss] Jangan menggandakan file cache untuk FileStreamSource menggunakan Trigger.AvailableNow
-
[SPARK-49567] [SC-176241][python] Gunakan
classicalih-alihvanilladari basis kode PySpark - [SPARK-48374] [SC-167596][python] Mendukung jenis kolom Tabel PyArrow tambahan
-
[SPARK-48300] [SC-166481][sql] Dukungan Codegen untuk
from_xml - [SPARK-49412] [SC-177059][ps] Menghitung semua metrik diagram kotak dalam satu tugas
- [SPARK-49692] [SC-177031][python][CONNECT] Perbaiki representasi string tanggal harfiah dan tanggalwaktu
- [SPARK-49392] [ES-1130351][sc-176705][SQL] Menangkap kesalahan saat gagal menulis ke sumber data eksternal
- [SPARK-48306] [SC-166241][sql] Meningkatkan UDT pada pesan kesalahan
- [SPARK-44924] [SC-166379][ss] Tambahkan konfigurasi untuk file cache FileStreamSource
- [SPARK-48176] [SC-165644][sql] Sesuaikan nama kondisi kesalahan FIELD_ALREADY_EXISTS
-
[SPARK-49691] [SC-176988][python][CONNECT]
substringfungsi harus menerima nama kolom - [SPARK-49502] [SC-176077][core] Hindari NPE di SparkEnv.get.shuffleManager.unregisterShuffle
- [SPARK-49244] [SC-176703][sql] Peningkatan pengecualian lebih lanjut untuk parser/interpreter
- [SPARK-48355] [SC-176684][sql] Dukungan untuk pernyataan CASE
-
[SPARK-49355] [SC-175121][sql]
levenshteinharus memeriksa apakah nilaicollationdari semua jenis parameter sama -
[SPARK-49640] [SC-176953][ps] Terapkan pengambilan sampel reservoir di
SampledPlotBase -
[SPARK-49678] [SC-176857][core] Dukungan
spark.test.masterdiSparkSubmitArguments -
[SPARK-49680] [SC-176856][python] Batas
Sphinxmembangun paralelisme ke 4 secara default - [SPARK-49396] Membatalkan “[SC-176030][sql] Ubah pemeriksaan nullability untuk ekspresi CaseWhen”
- [SPARK-48419] [SC-167443][sql] Penyebaran yang dapat dilipat seharusnya menggantikan kolom yang dapat dilipat...
- [SPARK-49556] [SC-176757][sql] Tambahkan sintaks pipa SQL untuk operator SELECT
-
[SPARK-49438] [SC-175237][sql] Perbaiki nama cantik ekspresi
FromAvro&ToAvro - [SPARK-49659] [SC-1229924][sql] Menambahkan pesan kesalahan yang ramah pengguna untuk subkueri skalar di dalam klausa VALUES
- [SPARK-49646] [SC-176778][sql] memperbaiki dekorelasi subkueri untuk operasi union/set ketika parentOuterReferences memiliki referensi yang tidak tercakup dalam collectedChildOuterReferences
-
[SPARK-49354] [SC-175034][sql]
split_partharus memeriksa apakah nilaicollationdari semua jenis parameter sama - [SPARK-49478] [SC-175914][connect] Menangani metrik null di ConnectProgressExecutionListener
- [SPARK-48358] [SC-176374][sql] Dukungan untuk pernyataan REPEAT
- [SPARK-49183] [SC-173680][sql] V2SessionCatalog.createTable harus mematuhi PROP_IS_MANAGED_LOCATION
-
[SPARK-49611] [SC-176791][sql] Memperkenalkan TVF
collations()& menghapus perintahSHOW COLLATIONS - [SPARK-49261] [SC-176589][sql] Jangan ganti literal dalam ekspresi agregat dengan ekspresi pengelompokan
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace harus menghormati katalog sesi kustom
- [SPARK-49594] [SC-176569][ss] Menambahkan pemeriksaan terhadap apakah columnFamilies ditambahkan atau dihapus untuk menulis file StateSchemaV3
- [SPARK-49578] [SC-176385][sql] Hapus saran konfigurasi ANSI di CAST_INVALID_INPUT dan CAST_OVERFLOW
- [SPARK-48882] [SC-174256][ss] Tetapkan nama ke kelas kesalahan terkait mode output streaming
-
[SPARK-49155] [SC-176506][sql][SS] Gunakan jenis parameter yang lebih sesuai untuk membangun
GenericArrayData - [SPARK-49519] [SC-176388][sql] Gabungkan opsi tabel dan hubungan saat membuat FileScanBuilder
- [SPARK-49591] [SC-176587][sql] Tambahkan kolom Tipe Logis ke readme varian
-
[SPARK-49596] [SC-176423][sql] Meningkatkan performa
FormatString - [SPARK-49525] [SC-176044][ss][CONNECT] Peningkatan log kecil pada ListenerBus Listener Kueri Streaming Sisi Server
-
[SPARK-49583] [SC-176272][sql] Tentukan sub-kondisi kesalahan
SECONDS_FRACTIONuntuk pola fraksi detik yang tidak valid - [SPARK-49536] [SC-176242] Menangani kesalahan dalam pengambilan awal rekaman sumber data streaming Python
- [SPARK-49443] [SC-176273][sql][PYTHON] Menerapkan ekspresi to_variant_object dan membuat ekspresi schema_of_variant mencetak OBJECT untuk Objek Varian
- [SPARK-49544] [SASP-3990][sc-176557][CONNECT] Ganti penguncian yang bersifat kasar di SparkConnectExecutionManager dengan ConcurrentMap
- [SPARK-49548] [SASP-3990][sc-176556][CONNECT] Ganti penguncian kasar di SparkConnectSessionManager dengan ConcurrentMap
- [SPARK-49551] [SC-176218][ss] Meningkatkan log RocksDB untuk replayChangelog
-
[SPARK-49595] [SC-176396][connect][SQL] Fix
DataFrame.unpivot/meltdi Spark Connect Scala Client - [SPARK-49006] [SC-176162] Menerapkan pembersihan untuk file OperatorStateMetadataV2 dan StateSchemaV3
-
[SPARK-49600] [SC-176426][python] Hapus logika terkait
Python 3.6 and olderdaritry_simplify_traceback - [SPARK-49303] [SC-176013][ss] Terapkan TTL untuk ValueState dalam transformWithStateInPandas API
- [SPARK-49191] [SC-176243][ss] Tambahkan dukungan untuk membaca variabel status peta transformWithState dengan pembaca sumber data status
- [SPARK-49593] [SC-176371][ss] Melempar pengecualian RocksDB ke pemanggil di DB tutup jika kesalahan terlihat
-
[SPARK-49334] [SC-174803][sql]
str_to_mapharus memeriksa apakah nilaicollationdari semua jenis parameter sama - [SPARK-42204] [SC-176126][core] Tambahkan opsi untuk menonaktifkan pencatatan berlebihan akumulator internal TaskMetrics dalam log peristiwa
- [SPARK-49575] [SC-176256][ss] Tambahkan pengelogan untuk rilis kunci hanya jika acquiredThreadInfo tidak null
- [SPARK-49539] [SC-176250][ss] Memperbarui pengidentifikasi awal untuk kelompok kolom internal ke yang berbeda
- [SPARK-49205] [SC-173853][sql] KeyGroupedPartitioning harus mewarisi HashPartitioningLike
- [SPARK-49396] [SC-176030][sql] Memodifikasi pemeriksaan nullability untuk ekspresi CaseWhen
- [SPARK-49476] [SC-175700][sql] Perbaiki ketidaknullan fungsi base64
- [SPARK-47262] [SC-174829][sql] Tetapkan nama ke kondisi kesalahan untuk konversi parquet
- [SPARK-47247] [SC-158349][sql] Gunakan ukuran target yang lebih kecil saat menyatukan partisi dengan join yang eksplosif
- [SPARK-49501] [SC-176166][sql] Perbaiki pemindahan ganda lokasi tabel
- [SPARK-49083] [SC-173214][connect] Izinkan from_xml dan from_json bekerja secara asli dengan skema json
- [SPARK-49043] [SC-174673][sql] Perbaiki grup codepath yang ditafsirkan berdasarkan pada peta yang berisi string yang disusun
- [SPARK-48986] [SC-172265][connect][SQL] Tambahkan Representasi Perantara ColumnNode
- [SPARK-49326] [SC-176016][ss] Klasifikasikan kelas Kesalahan untuk kesalahan fungsi pengguna sink Foreach
-
[SPARK-48348] [SC-175950][spark-48376][SQL] Memperkenalkan pernyataan
LEAVEdanITERATE - [SPARK-49523] [SC-175949][connect] Meningkatkan waktu tunggu maksimum agar server koneksi muncul untuk pengujian
- [SPARK-49000] [BEHAVE-105][es-1194747][SQL] Memperbaiki "select count(distinct 1) from t" di mana t adalah tabel kosong dengan memperluas RewriteDistinctAggregates - Databricks Runtime versi 16.x
- [SPARK-49311] [SC-175038][sql] Membuatnya mungkin bagi nilai 'interval detik' yang besar untuk dikasting ke desimal
- [SPARK-49200] [SC-173699][sql] Perbaiki pengecualian pemesanan non-codegen jenis null
- [SPARK-49467] [SC-176051][ss] Tambahkan dukungan untuk pembaca sumber data keadaan serta mencantumkan status
- [SPARK-47307] [SC-170891][sql] Tambahkan konfigurasi untuk secara opsional memotong string base64
- [SPARK-49391] [SC-176032][ps] Plot kotak pilih outlier berdasarkan jarak dari pagar
- [SPARK-49445] [SC-175845][ui] Mendukung penampilan tooltip di bilah kemajuan UI
- [SPARK-49451] [SC-175702] Izinkan kunci duplikat dalam parse_json.
- [SPARK-49275] [SC-175701][sql] Perbaiki jenis pengembalian null dari ekspresi xpath
- [SPARK-49021] [SC-175578][ss] Tambahkan dukungan untuk membaca variabel status nilai transformWithState dengan pembaca sumber data status
- [SPARK-49474] [BEHAVE-143][sc-169253][SC-175933][ss] Klasifikasikan kelas Error untuk error fungsi pengguna FlatMapGroupsWithState
- [SPARK-49408] [SC-175932][sql] Gunakan IndexedSeq di ProjectingInternalRow
-
[SPARK-49509] [SC-175853][core] Gunakan
Platform.allocateDirectBufferalih-alihByteBuffer.allocateDirect - [SPARK-49382] [SC-175013][ps] Buat diagram kotak frame secara tepat merender flier/outlier
- [SPARK-49002] [SC-172846][sql] Secara konsisten menangani lokasi yang tidak valid di WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
-
[SPARK-49480] [SC-175699][core] Perbaiki NullPointerException dari
SparkThrowableHelper.isInternalError - [SPARK-49477] [SC-175828][python] Meningkatkan pesan kesalahan untuk jenis pengembalian yang tidak valid pada pandas udf
- [SPARK-48693] [SC-169492][sql] Menyederhanakan dan menyatukan fungsi toString dari Invoke dan StaticInvoke
-
[SPARK-49441] [SC-175716][ml]
StringIndexermengurutkan array pada eksekutor - [SPARK-49347] [SC-175004][r] Deprecate SparkR
- [SPARK-49357] [SC-175227][connect][PYTHON] Secara vertikal memotong pesan protobuf yang sangat berlapis
- [SPARK-41982] [SC-120604][sql] Partisi jenis string tidak boleh diperlakukan sebagai jenis numerik
- [SPARK-48776] [SC-170452][behave-72] Perbaiki pemformatan tanda waktu untuk json, xml, dan csv
- [SPARK-49223] [SC-174800][ml] Sederhanakan StringIndexer.countByValue dengan fungsi bawaan
-
[SPARK-49016] Kembali "[SC-174663][sql] Mengembalikan perilaku yang melarang permintaan dari file CSV mentah ketika hanya menyertakan kolom rekaman rusak dan menetapkan nama ke
_LEGACY_ERROR_TEMP_1285" -
[SPARK-49041] [SC-172392][python][CONNECT] Memunculkan kesalahan yang tepat untuk
dropDuplicatesketikasubsetyang salah diberikan - [SPARK-49050] [SC-175235] Mengaktifkan operator deleteIfExists di TWS dengan Keluarga Kolom Virtual
- [SPARK-49216] [SC-173919][core]Perbaikan untuk tidak mencatat konteks pesan ketika LogEntry dibuat secara eksplisit saat konfigurasi Pengelogan Terstruktur tidak aktif.
-
[SPARK-49252] [SC-175596][core] Membuat
TaskSetExcludeListdanHeathTrackerindependen - [SPARK-49352] [SC-174971][sql] Hindari transformasi array berlebihan untuk ekspresi yang identik
- [SPARK-42307] [SC-173863][sql] Tetapkan nama untuk kesalahan _LEGACY_ERROR_TEMP_2232
-
[SPARK-49197] [SC-173732][core] Redact
Spark Commandoutput dalam modullauncher - [SPARK-48913] [SC-173934][sql] Mengimplementasikan IndentingXMLStreamWriter
- [SPARK-49306] [SC-175363][python][SQL] Buat alias fungsi SQL untuk 'zeroifnull' dan 'nullifzero'
- [SPARK-48344] [SQL] Eksekusi Skrip SQL (termasuk Spark Connect)
- [SPARK-49402] [SC-175122][python] Perbaiki integrasi Binder dalam dokumentasi PySpark
- [SPARK-49017] [SC-174664][sql] Pernyataan insert gagal ketika beberapa parameter sedang digunakan
- [SPARK-49318] [SC-174733][sql] Preempt kesalahan prioritas rendah pada LCA hingga akhir analisis pemeriksaan untuk meningkatkan pengalaman kesalahan
-
[SPARK-49016] [SC-174663][sql] Memulihkan perilaku bahwa kueri dari file CSV mentah tidak diizinkan saat hanya menyertakan kolom rekaman yang rusak dan menetapkan nama ke
_LEGACY_ERROR_TEMP_1285 -
[SPARK-49387] [SC-175124][python] Memperbaiki petunjuk tipe untuk
accuracydipercentile_approxdanapprox_percentile - [SPARK-49131] [SC-174666][ss] TransformWithState harus mengatur kunci pengelompokan implisit dengan benar bahkan dengan iterator malas
- [SPARK-49301] [SC-174795][ss] Data panah gugus yang diteruskan ke pekerja Python
- [SPARK-49039] [SC-174651][ui] Reset kotak centang ketika metrik pelaksana dimuat di tab Tahapan
- [SPARK-48428] [SC-169806][sql]: Perbaiki IllegalStateException di NestedColumnAliasing
-
[SPARK-49353] [SC-174830][sql] Memperbarui dokumen yang terkait dengan pengodean/dekode
UTF-32 - [SPARK-48613] [SC-170966][sql] SPJ: Mendukung pengacakan otomatis satu sisi + lebih sedikit kunci gabungan daripada kunci partisi
- [SPARK-47473] [SC-160450][behave-127][SQL] Memperbaiki masalah kebenaran konversi tanda waktu INFINITY postgres
- [SPARK-49142] [SC-173658][connect][PYTHON] Tindak lanjut untuk mengembalikan proto ke biaya performa string
- [SPARK-49300] [SC-175008][core] Perbaiki kebocoran token delegasi untuk Hadoop ketika tokenRenewalInterval tidak diatur.
- [SPARK-49367] [SC-175012][ps] Paralelkan komputasi KDE untuk beberapa kolom (backend plotly)
- [SPARK-49365] [SC-175011][ps] Menyederhanakan agregasi wadah dalam plot histogram
- [SPARK-49372] [SC-175003][ss] Pastikan bahwa latestSnapshot diatur ke kosong pada penutupan untuk menghindari penggunaan selanjutnya
-
[SPARK-49341] [SC-174785] Hapus
connector/dockerdemi kepentinganApache Spark Operator -
[SPARK-49344] [SC-174894][ps] Dukungan
json_normalizeuntuk Pandas API di Spark - [SPARK-49306] [SC-174794][sql] Buat fungsi SQL baru 'zeroifnull' dan 'nullifzero'
- [SPARK-48796] [SC-174668][ss] Muat Id Keluarga Kolom dari RocksDBCheckpointMetadata untuk VCF saat menghidupkan ulang
- [SPARK-49342] [SC-174899][sql] Buat TO_AVRO fungsi SQL 'jsonFormatSchema' argumen opsional
- [SPARK-48628] [SC-174695][core] Menambahkan metrik puncak memori heap on/off untuk tugas
- [SPARK-47407] [SC-159379][behave-126][SQL] Dukungan java.sql.Types.NULL map ke NullType
- [SPARK-48628] [SC-173407][core] Tambahkan metrik memori puncak on/off heap untuk tugas
- [SPARK-49166] [SC-173987][sql] Dukungan OFFSET dalam subkueri berkorelasi
- [SPARK-49269] [SC-174676][sql] Eagerly mengevaluasi daftar VALUES() di AstBuilder
- [SPARK-49281] [SC-174782][sql] Mengoptimalkan getBytes biner parquet dengan getBytesUnsafe untuk menghindari biaya penyalinan
- [SPARK-49113] [SC-174734] Jangan menegaskan pada bug terjemahan - menelan pengecualian secara diam-diam
- [SPARK-49098] [SC-173253][sql] Tambahkan opsi tulis untuk INSERT
- [SPARK-48638] [SC-174694][follow][CONNECT] Perbaiki dokumentasi untuk ExecutionInfo
- [SPARK-49250] [ES-1222826][sql] Meningkatkan pesan kesalahan untuk UnresolvedWindowExpression berlapis di CheckAnalysis
- [SPARK-48755] [SC-174258][ss][PYTHON] transformWithState implementasi dasar pyspark dan dukungan ValueState
- [SPARK-48966] [SC-174329][sql] Meningkatkan pesan galat terkait referensi kolom yang tidak valid dalam panggilan UDTF
- [SPARK-46590] [SC-154115][sql] Memperbaiki coalesce yang gagal dengan indeks partisi yang tidak terduga
- [SPARK-49235] [SC-174159][sql] Refaktor aturan ResolveInlineTables sehingga tidak melintasi seluruh pohon
- [SPARK-49060] [SC-173107][connect] Bersihkan aturan Mima untuk pemeriksaan kompatibilitas biner SQL-Connect
- [SPARK-48762] [SC-172525][sql] Memperkenalkan clusterBy DataFrameWriter API untuk Python
- [SPARK-49207] [SC-173852][sql] Perbaiki pemetaan kasus satu ke banyak di SplitPart dan StringSplitSQL
- [SPARK-49204] [SC-173850][sql] Perbaiki penanganan pasangan pengganti di StringInstr dan StringLocate
- [SPARK-36680] [SC-170640][sql] Mendukung Opsi Tabel Dinamis untuk Spark SQL
- [SPARK-49204] [SC-173849][sql] Perbaiki penanganan pasangan pengganti di SubstringIndex
- [SPARK-49204] [SC-173848][sql] Perbaiki penanganan pasangan pengganti di StringTrim
- [SPARK-48967] [SC-173993]Perbaiki penerusan pengujian SparkConfigOwnershipSuite untuk OPTIMIZE_INSERT_INTO_VALUES_PARSER
- [SPARK-49204] [SC-173851][sql] Perbaiki penanganan pasangan pengganti di StringReplace
- [SPARK-48967] [SC-173993][sql][16.x] Meningkatkan performa serta jejak memori "INSERT INTO ... Pernyataan VALUES
- [SPARK-49099] Kembali "[SC-173229][sql] CatalogManager.setCurrent...
- [SPARK-48347] [SC-173812][sql] Dukungan untuk pernyataan WHILE
- [SPARK-49128] [SC-173344][core] Mendukung judul antarmuka pengguna Server Riwayat kustom
- [SPARK-49146] [SC-173825][ss] Memindahkan kesalahan asersi terkait hilangnya watermark dalam kueri streaming mode append ke kerangka kerja kesalahan
- [SPARK-45787] [SC-172197][sql] Mendukung Catalog.listColumns untuk kolom pengklusteran
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace harus menghormati katalog sesi kustom
- [SPARK-49138] [SC-173483][sql] Memperbaiki CollationTypeCasts dari beberapa ekspresi
- [SPARK-49163] [SC-173666][sql] Upaya untuk membuat tabel berdasarkan hasil data partisi parquet yang rusak harus mengembalikan kesalahan yang dihadapi pengguna
-
[SPARK-49201] [SC-173793][ps][PYTHON][connect] Mengimplementasikan ulang
histplot dengan Spark SQL - [SPARK-49188] [SC-173682][sql] Kesalahan internal pada concat_ws yang dipanggil pada array dari array string
-
[SPARK-49137] [SC-173677][sql] Ketika kondisi Boolean dalam
if statementtidak valid, pengecualian harus dilemparkan - [SPARK-49193] [SC-173672][sql] Memperbaiki performa RowSetUtils.toColumnBasedSet
- [SPARK-49078] [SC-173078][sql] Dukungan memperlihatkan sintaks kolom dalam tabel v2
- [SPARK-49141] [SC-173388][sql] Tandai varian sebagai jenis data hive yang tidak kompatibel
-
[SPARK-49059] [Cherry-Pick][15.x][SC-172528][connect] Pindahkan
SessionHolder.forTesting(...)ke paket pengujian - [SPARK-49111] [SC-173661][sql] Pindahkan denganProjectAndFilter ke objek pendamping DataSourceV2Strategy
-
[SPARK-49185] [SC-173688][ps][PYTHON][connect] Reimplement
kdeplot dengan Spark SQL -
[SPARK-49178] [SC-173673][sql] Optimalkan performa
Row#getSeqagar sesuai dengan performa saat menggunakan Spark 3.5 dengan Scala 2.12 - [SPARK-49093] [SC-172958][sql] GROUP BY dengan tipe MapType yang bersarang di dalam jenis kompleks
- [SPARK-49142] [SC-173469][connect][PYTHON] Turunkan tingkat log klien Spark Connect ke debug
- [SPARK-48761] [SC-172048][sql] Memperkenalkan clusterBy DataFrameWriter API untuk Scala
- [SPARK-48346] [SC-173083][sql] Dukungan untuk pernyataan IF ELSE dalam skrip SQL
- [SPARK-48338] [SC-173112][sql] Meningkatkan pengecualian yang dilemparkan dari parser/interpreter
- [SPARK-48658] [SC-169474][sql] Fungsi Encode/Decode melaporkan kesalahan pengodean alih-alih mojibake untuk karakter yang tidak dapat dipetakan
- [SPARK-49071] [SC-172954][sql] Hapus sifat ArraySortLike
-
[SPARK-49107] Kembali "Kembalikan "[SC-173103][sql]
ROUTINE_ALREADY_EXISTSmendukung RoutineType"" - [SPARK-49070] [SC-172907][ss][SQL] TransformWithStateExec.initialState salah ditulis ulang untuk menghasilkan rencana kueri yang tidak valid
- [SPARK-49114] [SC-173217] Subkategori tidak dapat memuat kesalahan penyimpanan status
-
[SPARK-49107] Membatalkan "[SC-173103][sql]
ROUTINE_ALREADY_EXISTSmendukung RoutineType" - [SPARK-49048] [SC-173223][ss] Tambahkan dukungan untuk membaca metadata operator yang relevan pada id batch tertentu
- [SPARK-49094] [SC-173049][sql] Perbaiki ignoreCorruptFiles yang tidak berfungsi dengan baik untuk implementasi hive orc dengan mergeSchema dimatikan.
-
[SPARK-49108] [SC-173102][example] Tambahkan contoh REST API
submit_pi.sh -
[SPARK-49107] [SC-173103][sql]
ROUTINE_ALREADY_EXISTSmendukung RoutineType - [SPARK-48997] [SC-172484][ss] Terapkan membongkar secara individual untuk kegagalan pool thread pemeliharaan
- [SPARK-49063] [SC-173094][sql] Perbaiki Antara dengan ScalarSubqueries
- [SPARK-45891] [SC-172305][sql][PYTHON][varian] Tambahkan dukungan untuk jenis interval dalam Spesifikasi Varian
-
[SPARK-49074] [BEHAVE-110][sc-172815][SQL] Memperbaiki varian dengan
df.cache() - [SPARK-49003] [SC-172613][sql] Perbaiki hash jalur kode yang ditafsirkan agar sadar kolase
- [SPARK-48740] [SC-172430][sql] Menangkap kesalahan spesifikasi jendela yang hilang lebih awal
- [SPARK-48999] [SC-172245][ss] Divide PythonStreamingDataSourceSimpleSuite
- [SPARK-49031] [SC-172602] Menerapkan validasi untuk operator TransformWithStateExec menggunakan OperatorStateMetadataV2
- [SPARK-49053] [SC-172494][python][ML] Membuat fungsi pembantu untuk menyimpan/memuat model menerima sesi Spark
- [SPARK-49032] [Backport][15.x][SS] Tambahkan jalur skema dalam entri tabel metadata, verifikasi versi yang diharapkan dan tambahkan pengujian terkait metadata operator untuk format metadata operator v2
-
[SPARK-49034] [SC-172306][core] Mendukung penggantian
sparkPropertiessisi server di REST Submission API - [SPARK-48931] [SC-171895][ss] Kurangi biaya API Daftar Penyimpanan Cloud untuk tugas pemeliharaan penyimpanan status
- [SPARK-48849] [SC-172068][ss]Create OperatorStateMetadataV2 untuk operator TransformWithStateExec
- [SPARK-49013] [SC-172322] Ubah kunci dalam collationsMap untuk jenis Map dan Array dalam scala
-
[SPARK-48414] [SC-171884][python] Perbaiki perubahan yang menyebabkan gangguan pada python
fromJson - [SPARK-48910] [SC-171001][sql] Gunakan HashSet/HashMap untuk menghindari pencarian linier di PreprocessTableCreation
-
[SPARK-49007] [SC-172204][core] Tingkatkan
MasterPageuntuk mendukung judul kustom - [SPARK-49009] [SC-172263][sql][PYTHON] Buat API kolom dan fungsi menerima Enum
-
[SPARK-49033] [SC-172303][core] Mendukung penggantian
environmentVariablessisi server di REST Submission API -
[SPARK-48363] [SC-166470][sql] Membersihkan beberapa kode redundan di
from_xml - [SPARK-46743] [SC-170867][sql][BEHAVE-84] Hitung bug setelah ScalarSubquery dilipat jika memiliki relasi kosong
-
[SPARK-49040] [SC-172351][sql] Perbaikan dokumen
sql-ref-syntax-aux-exec-imm.md - [SPARK-48998] [SC-172212][ml] Algoritma meta menyimpan/memuat model dengan SparkSession
-
[SPARK-48959] [SC-171708][sql] Make
NoSuchNamespaceExceptionmemperluasNoSuchDatabaseExceptionuntuk memulihkan penanganan pengecualian - [SPARK-48996] [SC-172130][sql][PYTHON] Izinkan penggunaan literal murni untuk ,, , atau Kolom
- [SPARK-48990] [SC-171936] Tindak lanjut untuk #101759 - perbaikan uji
- [SPARK-48338] [SC-171912][sql] Periksa deklarasi variabel
- [SPARK-48990] [SC-171936][sql] Kata kunci sintaks SQL terkait variabel terpadu
-
[SPARK-48988] [SC-171915][ml] Buat
DefaultParamsReader/Writermenangani metadata dengan sesi spark -
[SPARK-48974] [SC-171978][sql][SS][ml][MLLIB] Gunakan
SparkSession.implicitsalih-alihSQLContext.implicits - [SPARK-48760] [SC-170870][sql] Perbaiki CatalogV2Util.applyClusterByChanges
- [SPARK-48928] [SC-171956] Peringatan Log untuk Memanggil .unpersist() pada RDD yang Dicentang Secara Lokal
- [SPARK-48760] [SC-170139][sql] Memperkenalkan ALTER TABLE ... CLUSTER BY sintaks SQL untuk mengubah kolom pengklusteran
- [SPARK-48844] Balikkan “[SC-170669][sql] gunakan INVALID_EMPTY_LOCATION alih-alih UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY saat jalur kosong”
-
[SPARK-48833] [SC-171914][sql][VARIANT] Varian dukungan dalam
InMemoryTableScan -
[SPARK-48975] [SC-171894][protobuf] Hapus definisi
ScalaReflectionLockyang tidak perlu dariprotobuf - [SPARK-48970] [SC-171800][python][ML] Hindari menggunakan SparkSession.getActiveSession di spark ML reader/writer
- [SPARK-48844] [SC-170669][sql] GUNAKAN INVALID_EMPTY_LOCATION alih-alih UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY saat jalur kosong
- [SPARK-48714] [SC-170136] Memperbaiki pengujian df.mergeInto yang gagal di PySpark dan UC
- [SPARK-48957] [SC-171797][ss] Mengembalikan kelas kesalahan subklasifikasi pada beban penyimpanan status untuk penyedia hdfs dan rocksdb
- [SPARK-48891] [Backport][15x][SC-171677][ss] Refaktorisasi StateSchemaCompatibilityChecker untuk menyatukan semua format skema keadaan
- [SPARK-48972] [SC-171795][python] Menyatukan penanganan string literal dalam fungsi
- [SPARK-48388] [SC-171337][sql] Memperbaiki perilaku pernyataan SET untuk Skrip SQL
- [SPARK-48743] [SC-170552][sql][SS] MergingSessionIterator harus lebih baik menangani ketika getStruct mengembalikan null
- [SPARK-48623] [15.x][sc-171322][CORE] Memigrasikan log FileAppender ke pengelogan terstruktur
- [SPARK-36680] [DBRRM-1123] Mengembalikan “[SC-170640][sql] Mendukung Opsi Tabel Dinamis untuk Spark SQL”
-
[SPARK-48841] [SC-170868][behave-83][SQL] Sertakan
collationNamekesql()Collate - [SPARK-48941] [SC-171703][python][ML] Ganti pemanggilan API baca/tulis RDD dengan API baca/tulis Dataframe
- [SPARK-48938] [SC-171577][python] Meningkatkan pesan kesalahan saat mendaftarkan UDTF Python
- [SPARK-48350] [SC-171040][sql] Pengenalan Pengecualian Kustom untuk Pembuatan Skrip Sql
-
[SPARK-48907] [SC-171158][sql] Perbaiki nilai
explicitTypesdiCOLLATION_MISMATCH.EXPLICIT -
[SPARK-48945] [SC-171658][python] Menyederhanakan fungsi regex dengan
lit - [SPARK-48944] [SC-171576][connect] Menyatukan penanganan skema format JSON di Connect Server
- [SPARK-48836] [SC-171569] Mengintegrasikan skema SQL dengan skema/metadata status
- [SPARK-48946] [SC-171504][sql] NPE dalam metode redaksi ketika sesi null
- [SPARK-48921] [SC-171412][sql] Encoder ScalaUDF dalam subkueri harus diselesaikan untuk MergeInto
- [SPARK-45155] [SC-171048][connect] Tambahkan DOKUMEN API untuk Klien Spark Connect JVM/Scala
-
[SPARK-48900] [SC-171319] Tambahkan
reasonbidang untukcancelJobGroupdancancelJobsWithTag - [SPARK-48865] [SC-171154][sql] Tambahkan fungsi try_url_decode
-
[SPARK-48851] [SC-170767][sql] Ubah nilai
SCHEMA_NOT_FOUNDdarinamespacemenjadicatalog.namespace -
[SPARK-48510] [SC-170893][2/2] Mendukung UDAF
toColumnAPI di Spark Connect -
[SPARK-45190] [SC-171055][spark-48897][PYTHON][connect] Make
from_xmlmendukung skema StructType -
[SPARK-48930] [SC-171304][core] Redact
awsAccessKeyIddengan menyertakan polaaccesskey - [SPARK-48909] [SC-171080][ml][MLLIB] Menggunakan SparkSession melalui SparkContext saat menulis metadata
- [SPARK-48883] [SC-171133][ml][R] Ganti pemanggilan API baca/tulis RDD dengan API baca/tulis Dataframe
-
[SPARK-48924] [SC-171313][ps] Tambahkan fungsi pembantu
make_intervalseperti panda -
[SPARK-48884] [SC-171051][python] Hapus fungsi pembantu yang tidak digunakan
PythonSQLUtils.makeInterval - [SPARK-48817] [SC-170636][sql] Segera menjalankan beberapa perintah union bersama-sama
- [SPARK-48896] [SC-171079][ml][MLLIB] Hindari partisi ulang saat menulis metadata
-
[SPARK-48892] [SC-171127][ml] Hindari pembacaan parameter per baris di
Tokenizer -
[SPARK-48927] [SC-171227][core] Tampilkan jumlah RDD yang di-cache di
StoragePage - [SPARK-48886] [15.x][backport][SC-171039][ss] Tambahkan info versi ke changelog v2 untuk memungkinkan evolusi yang lebih mudah
- [SPARK-48903] [SC-171136][ss] Atur versi snapshot terakhir RocksDB dengan tepat saat pemuatan jarak jauh
- [SPARK-48742] [SC-170538][ss] Keluarga Kolom Virtual untuk RocksDB
- [SPARK-48726] [15.x][sc-170753][SS] Buat format file StateSchemaV3, dan tulis ini untuk operator TransformWithStateExec
- [SPARK-48794] [SC-170882][connect][15.x] df.mergeInto dukungan untuk Spark Connect (Scala dan Python)
-
[SPARK-48714] [SC-170136][python] Implementasikan
DataFrame.mergeIntodi PySpark - [SPARK-48772] [SC-170642][ss][SQL] Mode Pembaca Umpan Perubahan Sumber Data Status
- [SPARK-48666] [SC-170887][sql] Jangan dorong ke bawah filter jika berisi PythonUDFs
- [SPARK-48845] [SC-170889][sql] GenericUDF menangkap pengecualian dari anak-anak
- [SPARK-48880] [SC-170974][core] Hindari melempar NullPointerException jika plugin driver gagal menginisialisasi
- [SPARK-48888] [Backport][15x][SC-170973][ss] Hapus pembuatan rekam jepret berdasarkan ukuran operasi changelog
- [SPARK-48871] [SC-170876] Perbaiki validasi INVALID_NON_DETERMINISTIC_EXPRESSIONS di...
- [SPARK-48883] [SC-170894][ml][R] Ganti pemanggilan API baca/tulis RDD dengan API baca/tulis Dataframe
- [SPARK-36680] [SC-170640][sql] Mendukung Opsi Tabel Dinamis untuk Spark SQL
- [SPARK-48804] [SC-170558][sql] Tambahkan classIsLoadable & OutputCommitter.isAssignableFrom periksa konfigurasi kelas komitter output
- [SPARK-46738] [SC-170791][python] Mengaktifkan kembali sekelompok doctest
-
[SPARK-48858] [SC-170756][python] Hapus panggilan metode
setDaemonThreadyang tidak digunakan lagi dilog_communication.py - [SPARK-48639] [SC-169801][connect][PYTHON] Tambahkan Asal ke RelationCommon
- [SPARK-48863] [SC-170770][es-1133940][SQL] Perbaiki ClassCastException saat mengurai JSON dengan "spark.sql.json.enablePartialResults" diaktifkan
- [SPARK-48343] [SC-170450][sql] Pengenalan penerjemah Skrip SQL
- [SPARK-48529] [SC-170755][sql] Pengenalan Label dalam SQL Scripting
- [SPARK-45292] Batalkan "[SC-151609][sql][HIVE] Hapus Guava dari kelas bersama dari IsolatedClientLoader"
- [SPARK-48037] [SC-165330][core][3.5] Memperbaiki SortShuffleWriter yang tidak memiliki metrik terkait penulisan shuffle yang mengakibatkan data yang berpotensi tidak akurat
-
[SPARK-48720] [SC-170551][sql] Sejajarkan perintah
ALTER TABLE ... UNSET TBLPROPERTIES ...di v1 dan v2 - [SPARK-48485] [SC-167825][connect][SS] Support interruptTag and interruptAll pada kueri streaming
- [SPARK-45292] [SC-151609][sql][HIVE] Hapus Guava dari kelas bersama dari IsolatedClientLoader
- [SPARK-48668] [SC-169815][sql] Dukungan ALTER NAMESPACE ... UNSET PROPERTI di v2
- [SPARK-47914] [SC-165313][sql] Jangan tampilkan parameter pemisahan dalam Rentang
- [SPARK-48807] [SC-170643][sql] Dukungan Biner untuk sumber data CSV
- [SPARK-48220] [SC-167592][python][15.X] Izinkan melewati Tabel PyArrow untuk membuatDataFrame()
- [SPARK-48545] [SC-169543][sql] Buat fungsi SQL to_avro dan from_avro agar sesuai dengan setara DataFrame
- [SPARK-47577] [SC-168875][spark-47579] Perbaiki penggunaan kunci log TASK_ID yang salah
Dukungan pada driver Databricks ODBC/JDBC
Databricks mendukung driver ODBC/JDBC yang dirilis dalam 2 tahun terakhir. Silakan unduh driver terbaru dan lakukan peningkatan (unduh ODBC, unduh JDBC).
Lingkungan sistem
- Sistem Operasi : Ubuntu 24.04.1 LTS
- Java: Zulu17.50+19-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Danau Delta: 3.2.1
Pustaka Python yang diinstal
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| tipe beranotasi | 0.7.0 | asttoken | 2.0.5 | astunparse | 1.6.3 |
| perintah otomatis | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| Azure Storage File Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | hitam | 24.4.2 |
| blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools (perangkat untuk caching) | 5.3.3 | sertifikat | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | charset-normalizer | 2.0.4 | klik | 8.1.7 |
| cloudpickle (perpustakaan Python untuk serialisasi objek) | 2.2.1 | Komunikasi | 0.2.1 | Contourpy | 1.2.0 |
| Kriptografi | 42.0.5 | pengendara sepeda | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| penghias | 5.1.1 | Tidak digunakan lagi | 1.2.14 | distlib | 0.3.8 |
| konversi docstring ke markdown | 0.11 | titik masuk | 0,4 | Mengeksekusi | 0.8.3 |
| gambaran umum aspek | 1.1.1 | filelock | 3.15.4 | alat pengelola font | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-auth (autentikasi Google) | 2.35.0 | google-cloud-core | 2.4.1 | penyimpanan awan Google | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media (layanan media berkelanjutan dari Google) | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| IDNA | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| memfleksi | 7.3.1 | ipyflow-core | 0.0.198 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.teks | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient (klien layanan web yang menggunakan RESTful) | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny (versi ringan) | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy ekstensi | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy (perpustakaan Python untuk operasi numerik) | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-konvensi-semantik | 0.48b0 |
| pengemasan | 24.1 | Panda | 1.5.3 | pengurai | 0.8.3 |
| spesifikasi jalur | 0.10.3 | kambing hitam | 0.5.6 | pexpect | 4.8.0 |
| bantal | 10.3.0 | pipa | 24,2 | platformdir | 3.10.0 |
| secara plot | 5.22.0 | pengaya | 1.0.0 | prompt-toolkit | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | modul pyasn1 | 0.2.8 |
| pyccolo | 0.0.52 | pycparser | 2.21 | pydantic (perpustakaan Python untuk validasi data) | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
| pytz | 2024.1 | PyYAML (paket untuk memproses bahasa YAML dalam Python) | 6.0.1 | pyzmq | 25.1.2 |
| permohonan | 2.32.2 | tali | 1.12.0 | Rsa | 4.9 |
| s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy (perpustakaan Python untuk komputasi ilmiah) | 1.13.1 |
| Seaborn (perpustakaan Python untuk visualisasi data) | 0.13.2 | setuptools | 74.0.0 | Enam | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels (paket Python untuk pemodelan statistik) | 0.14.2 | kegigihan | 8.2.2 |
| threadpoolctl | 2.2.0 | Tokenisasi-RT | 4.2.1 | tomli | 2.0.1 |
| Tornado | 6.4.1 | sifat | 5.14.3 | typeguard (penjaga tipe) | 4.3.0 |
| type-protobuf | 3.20.3 | type-psutil | 5.9.0 | type-pytz | 2023.3.1.1 |
| Types-PyYAML | 6.0.0 | jenis permintaan | 2.31.0.0 | tipe-setuptools | 68.0.0.0 |
| tipe-enam | 1.16.0 | jenis-urllib3 | 1.26.25.14 | ekstensi pengetikan (typing_extensions) | 4.11.0 |
| ujson | 5.10.0 | pembaruan otomatis tanpa pengawasan | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| apa itu patch | 1.0.2 | wheel | 0.43.0 | terbungkus | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
Perpustakaan R yang terinstal
Pustaka R diinstal dari cuplikan CRAN "Posit Package Manager" pada 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| anak panah | 16.1.0 | askpass | 1.2.0 | pastikanbahwa | 0.2.1 |
| pemindahan fitur ke versi lama (backports) | 1.5.0 | dasar | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | sedikit | 4.0.5 | bit-64 | 4.0.5 |
| bitops | 1,0-8 | blob | 1.2.4 | sepatu bot | 1.3-30 |
| menyeduh | 1.0-10 | Brio | 1.1.5 | sapu | 1.0.6 |
| bslib | 0.8.0 | cashmere | 1.1.0 | layanan panggilan | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | kronogram | 2.3-61 |
| kelas | 7.3-22 | CLI | 3.6.3 | pemangkas | 0.8.0 |
| jam dinding | 0.7.1 | kluster | 2.1.6 | codetools | 0.2-20 |
| ruang warna | 2.1-1 | commonmark | 1.9.1 | pengkompilasi | 4.4.0 |
| konfig | 0.3.2 | Bimbang | 1.2.0 | cpp11 | 0.4.7 |
| kriyon | 1.5.3 | kredensial | 2.0.1 | melengkung | 5.2.1 |
| data.table (sebuah paket untuk pengolahan data table) | 1.15.4 | kumpulan data | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | deskripsi | 1.4.3 | devtools | 2.4.5 |
| bagan | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.36 |
| pencahayaan turun | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | elipsis | 0.3.2 | menilai | 0.24.0 |
| penggemar | 1.0.6 | warna-warna | 2.1.2 | pemetaan cepat | 1.2.0 |
| fontawesome | 0.5.2 | untuk kucing | 1.0.0 | foreach (pengulangan untuk setiap elemen) | 1.5.2 |
| asing | 0.8-86 | bengkel pandai besi | 0.2.0 | Fs | 1.6.4 |
| masa depan | 1.34.0 | menerapkan di masa depan | 1.11.2 | kumur | 1.5.2 |
| obat generik | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | variabel global | 0.16.3 | lem | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Grafik | 4.4.0 | grDevices | 4.4.0 | kisi | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0,7 | GT | 0.11.0 |
| dapat di-gt | 0.3.5 | topi keras | 1.4.0 | tempat aman | 2.5.4 |
| lebih tinggi | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Id | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Pengiterasi | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | rajut | 1.48 | Pelabelan | 0.4.3 |
| nanti | 1.3.2 | rangka | 0.22-5 | lahar | 1.8.0 |
| siklus hidup | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | Massa | 7.3-60.0.1 |
| Matriks | 1.6-5 | memosankan | 2.0.1 | Metode | 4.4.0 |
| mgcv | 1.9-1 | pantomim | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | Agustus 2016 - Januari 2017 | openssl | 2.2.0 | paralel | 4.4.0 |
| secara paralel | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pujian | 1.0.0 |
| prettyunits | 1.2.0 | Proc | 1.18.5 | ProsesX | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | Kemajuan | 1.2.3 |
| progresr | 0.14.0 | janji | 1.3.0 | Proto | 1.0.0 |
| proksi | 0,4-27 | P.S. | 1.7.7 | menggeram lembut | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest (algoritma pembelajaran mesin) | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | dapat direaksi | 0.4.4 |
| reactR | 0.6.0 | pembaca | 2.1.5 | readxl (membaca file Excel) | 1.4.3 |
| Resep | 1.1.0 | pertandingan ulang | 2.0.0 | pertandingan ulang 2 | 2.1.2 |
| pengontrol jarak jauh | 2.5.0 | contoh replikasi | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| timbangan / sisik | 1.3.0 | selektor | 0,4-2 | informasi sesi | 1.2.2 |
| bentuk | 1.4.6.1 | mengkilap | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr - paket R untuk analisis data dan pembelajaran mesin | 1.8.6 | SparkR | 3.5.0 | spasial | 7.3-17 |
| garis lengkung | 4.4.0 | sqldf | 0.4-1 | SQUAREM | 2021.1 |
| statistik | 4.4.0 | statistik4 | 4.4.0 | string | 1.8.4 |
| stringr | 1.5.1 | bertahan hidup | 3.6-4 | gaya berani | 5.17.14.1 |
| Sistem | 3.4.2 | systemfonts | 1.1.0 | bahasa pemrograman Tcl/Tk | 4.4.0 |
| ujiitu | 3.2.1.1 | pemformatan teks | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | pilih rapi | 1.2.1 | rapi | 2.0.0 |
| perubahan jam | 0.3.0 | TanggalWaktu | 4032.109 | tinytex | 0.52 |
| perangkat | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| gunakan ini | 3.0.0 | utf8 | 1.2.4 | Utilitas | 4.4.0 |
| UUID (Pengidentifikasi Unik Universal) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| kumis | 0.4.1 | dengan | 3.0.1 | xfun | 0,46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | Zip | 2.3.1 |
Pustaka Java dan Scala yang diinstal (versi kluster Scala 2.12)
| ID Kelompok | Identifikasi Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klien Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | AWS Java SDK untuk CloudHSM | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfigurasi SDK Java untuk AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-impor-ekspor | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Pembelajaran Mesin | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks (SDK Java untuk OpsWorks) | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) | 1.12.638 |
| com.amazonaws | SDK Java untuk Storage Gateway AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Dukungan | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | aliran | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | bayangan-kriogenik | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.3.4 |
| com.fasterxml.jackson.core | Jackson Annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | kafein | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | sistem_asli-java | 1.1 |
| com.github.fommil.netlib | sistem_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-penduduk asli |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | Annotasi yang rentan terhadap kesalahan | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | jambu biji | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | pembuat profil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | kode_sumber_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (algoritma kompresi) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typeafe | konfig | 1.4.3 |
| com.typeafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | Pengurai Univocity | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| koleksi umum | koleksi umum | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| unggah berkas pada commons | unggah berkas pada commons | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (perpustakaan Java untuk fungsi pencatatan) | commons-logging (perpustakaan Java untuk fungsi pencatatan) | 1.1.3 |
| kolam umum | kolam umum | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Tidak peduli | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.0 |
| io.dropwizard.metrics | metrik dan anotasi | 4.2.19 |
| io.dropwizard.metrics | inti metrik | 4.2.19 |
| io.dropwizard.metrics | metrik-graphite | 4.2.19 |
| io.dropwizard.metrics | pengukuran-pemeriksaan kesehatan | 4.2.19 |
| io.dropwizard.metrics | metrik-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrik-jmx | 4.2.19 |
| io.dropwizard.metrics | metrik-json | 4.2.19 |
| io.dropwizard.metrics | metrik-jvm | 4.2.19 |
| io.dropwizard.metrics | metrik-servlet | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | Netty Buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-kodek-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | Kelas netty-tcnative | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll (kelas transportasi netty - epoll) | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_umum | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway (gateway pendorong sederhana) | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | pengumpul | 0.12.0 |
| jakarta.anotasi | jakarta.anotasi-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | Transaction-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | mentimun acar | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| jaring.bunga salju | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_gabungan_semua | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | semut | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | format tanda panah | 15.0.0 |
| org.apache.arrow | inti-memori-panah | 15.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 15.0.0 |
| org.apache.arrow | panah-vektor | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-koleksi4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | Commons-Math3 | 3.6.1 |
| org.apache.commons | commons-text (teks umum) | 1.10.0 |
| org.apache.curator | kurator dan klien | 2.13.0 |
| org.apache.curator | kerangka kerja kurator | 2.13.0 |
| org.apache.curator | kurasi resep | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | pertandingan derbi | 10.14.2.0 |
| org.apache.hadoop | lingkungan kerja klien Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (antarmuka perintah untuk Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | apache hive-llap-client | 2.3.9 |
| org.apache.hive | apache hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API penyimpanan hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) | 2.3.9 |
| org.apache.hive.shims | Pengatur Jadwal Hive Shims | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | tanaman anggur | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json (pola tata letak JSON di log4j) | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | berbayang xbean-asm9 | 4.23 |
| org.apache.yetus | anotasi penonton | 0.13.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.9.2 |
| org.apache.zookeeper | penjaga kebun binatang-jute | 3.9.2 |
| org.checkerframework | pemeriksa kualitas | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Pengompilasi Umum | 3.0.16 |
| org.codehaus.janino | Januari | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Koleksi gerhana | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | lanjutan dermaga | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http (protokol HTTP untuk server Jetty) | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | keamanan jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Aplikasi web Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klien | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-pemindai lokasi | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-penanda-sumber-daya | 1.0.3 |
| org.glassfish.hk2.external | aopalliance (dikemas ulang) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-inti | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey biasa | 2.40 |
| org.glassfish.jersey.core | Jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | Hibernate Validator | 6.1.7.Terakhir |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | pengelogan jboss | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotasi | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | pengganjal | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | antarmuka pengujian | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | kompatibel dengan ScalaTest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
| Stax | stax-api | 1.0.1 |