Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Nota
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 16.3, didukung oleh Apache Spark 3.5.2.
Databricks merilis versi ini pada Maret 2025.
Perubahan perilaku
Perbaikan bug untuk opsi Auto Loader: modifiedBefore, modifiedAfter, pathGlobFilter
Sebelumnya, memodifikasi nilai opsi modifiedBeforeAuto Loader , , modifiedAfterdan pathGlobFilter tidak berpengaruh. Masalah ini telah diperbaiki.
Sekarang, saat Anda memodifikasi nilai-nilai dari filter ini, Auto Loader mengambil file baru yang lolos filter. Jika lebih sedikit file memenuhi syarat berdasarkan nilai filter yang diperbarui, file yang tidak lagi memenuhi syarat tidak dihapus dari sink, tetapi tetap diserap.
Pesan kesalahan yang disempurnakan ketika kafka.sasl.client.callback.handler.class diberi nilai yang tidak valid
Rilis ini mencakup perubahan untuk mengembalikan pesan kesalahan yang lebih deskriptif ketika kafka.sasl.client.callback.handler.class diberi nilai yang tidak valid.
Pesan kesalahan baru adalah org.apache.spark.sql.AnalysisException: [RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.KAFKA_CLIENT_CALLBACK_SHADED_CLASS] The option kafka.sasl.client.callback.handler.class has restricted values on Shared clusters for the kafka source. The Kafka client callback class must be "shadedmskiam.software.amazon.msk.auth.iam.IAMClientCallbackHandler". SQLSTATE: 0A000
Sebelumnya, pesan kesalahan yang dikembalikan adalah org.apache.spark.sql.AnalysisException: [UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED] Streaming options kafka.sasl.client.callback.handler.class are not supported for data source kafka on a shared cluster. Please confirm that the options are specified and spelled correctly, and check https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-shared for limitations. SQLSTATE: 0A000
Fitur dan peningkatan baru
- Dukungan pembaca status tersedia secara umum untuk komputasi standar
- Penurunan protokol tabel Delta adalah GA dengan perlindungan titik pemeriksaan
- Menulis skrip SQL prosedural berdasarkan ANSI SQL/PSM (Pratinjau Umum)
- Kolatasi default tingkat tabel dan tampilan
- Menginstal dependensi kustom di Unity Catalog Python UDFs (Pratinjau Umum)
- Mengubah beberapa kolom tabel dalam satu ALTER TABLE pernyataan
-
Dukungan untuk
transformWithStateInPandaspada komputasi standar -
Dukungan untuk
MERGE INTOtabel dengan kontrol akses terperinci pada komputasi berdedikasi (Pratinjau Umum) - Dukungan untuk menambahkan data ke tabel dengan kontrol akses terperinci pada komputasi terdedikasi
- Dukungan yang ditingkatkan untuk self-join dengan objek yang dikendalikan akses secara mendetail pada komputasi khusus
- Fungsi H3 baru
Dukungan pembaca status adalah GA untuk komputasi standar
Dukungan untuk membaca informasi status untuk kueri Streaming Terstruktur sekarang tersedia secara umum untuk komputasi yang dikonfigurasi dengan mode akses standar. Lihat Baca informasi status Streaming Terstruktur.
Penurunan protokol tabel Delta adalah GA dengan perlindungan titik pemeriksaan
DROP FEATURE umumnya tersedia untuk menghapus fitur tabel Delta Lake dan menurunkan tingkat protokol tabel. Secara bawaan, DROP FEATURE sekarang membuat titik pemeriksaan yang dilindungi untuk pengalaman penurunan yang lebih optimal dan sederhana tanpa memerlukan waktu tunggu atau pemotongan riwayat. Lihat Menghilangkan fitur tabel Delta Lake dan menurunkan protokol tabel.
Menulis skrip SQL prosedural berdasarkan ANSI SQL/PSM (Pratinjau Umum)
Anda sekarang dapat menggunakan kemampuan pembuatan skrip berdasarkan ANSI SQL/PSM untuk menulis logika prosedural dengan SQL, termasuk pernyataan alur kontrol, variabel lokal, dan penanganan pengecualian. Lihat pembuatan skrip SQL.
Kolatasi default tingkat tabel dan tampilan
Sekarang Anda dapat menentukan pengurutan default untuk tabel dan pandangan. Ini menyederhanakan pembuatan tabel dan tampilan di mana semua atau sebagian besar kolom berbagi kolatasi yang sama. Lihat Collation.
Menginstal dependensi kustom di Unity Catalog Python UDFs (Pratinjau Umum)
Perluas fungsionalitas UDF Python di luar lingkungan Databricks Runtime dengan menentukan dependensi kustom untuk pustaka eksternal. Lihat Memperluas UDF menggunakan dependensi kustom.
Mengubah beberapa kolom tabel dalam satu ALTER TABLE pernyataan
Di Databricks Runtime 16.3, Anda dapat mengubah beberapa kolom dalam satu ALTER TABLE pernyataan. Lihat ALTER TABLE ... COLUMN klausa.
Dukungan untuk transformWithStateInPandas pada komputasi standar
Anda sekarang dapat menggunakan transformWithStateInPandas pada komputasi yang dikonfigurasi dengan mode akses standar. Lihat Buat aplikasi stateful kustom.
Dukungan untuk MERGE INTO ke tabel dengan kontrol akses yang sangat rinci pada komputasi yang khusus (Pratinjau Umum)
Dalam Databricks Runtime 16.3 dan lebih baru, komputasi khusus mendukung MERGE INTO pada tabel Unity Catalog yang menggunakan kontrol akses yang lebih terperinci. Mirip dengan membaca dari objek ini, perintah MERGE secara otomatis diteruskan kepada komputasi tanpa server ketika dibutuhkan.
Lihat Kontrol akses halus pada komputasi khusus.
Dukungan untuk menambahkan data ke tabel dengan kontrol akses terperinci pada komputasi yang ditujukan khusus.
Mulai Databricks Runtime 16.3 dan versi yang lebih baru, komputasi khusus mendukung penambahan pada objek Unity Catalog yang menggunakan kontrol akses yang detail. Untuk menggunakan fitur ini, gunakan DataFrame.write.mode("append") fungsi di Apache Spark API. Mirip dengan membaca dari objek ini, penulisan tambahan secara otomatis dikirim ke komputasi tanpa server jika diperlukan.
Untuk mengetahui lebih lanjut tentang penggunaan komputasi khusus dengan objek Unity Catalog yang dikontrol akses secara mendetail, silakan lihat Kontrol akses mendetail pada komputasi khusus.
Dukungan yang ditingkatkan untuk self-join dengan objek yang dikontrol akses secara rinci pada komputasi khusus
Dalam Databricks Runtime 16.3 ke atas, fungsionalitas pemfilteran data untuk kontrol akses terperinci pada komputasi khusus sekarang secara otomatis menyinkronkan cuplikan antara sumber daya komputasi khusus dan komputasi tanpa server, dengan pengecualian tampilan materialisasi dan tampilan apa pun, tampilan materialisasi, dan tabel streaming yang dibagikan menggunakan Delta Sharing. Fungsionalitas yang ditingkatkan ini memastikan bahwa self-join mengembalikan cuplikan identik saat pemfilteran data digunakan. Lihat Kontrol akses halus pada komputasi khusus.
Fungsi H3 baru
Tiga fungsi H3 baru telah ditambahkan: h3_try_coverash3, h3_try_coverash3string, dan h3_try_tessellateaswkb.
Peningkatan pustaka
Pustaka Python yang ditingkatkan:
- mlflow-skinny dari 2.15.1 hingga 2.19.0
Pustaka R yang ditingkatkan:
Pustaka Java yang ditingkatkan:
Apache Spark
Databricks Runtime 16.3 mencakup Apache Spark 3.5.2. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 16.2 (EoS), serta perbaikan bug dan peningkatan tambahan berikut yang dilakukan pada Spark:
- [SPARK-51594] [DBRRM-1604][sc-192125][SQL] Gunakan skema kosong saat menyimpan tampilan yang tidak kompatibel dengan Apache Hive
- [SPARK-51388] [SC-190503][sql] Meningkatkan penyebaran fragmen SQL di to_timestamp dan UNION
- [SPARK-51394] [SC-190492][ml] Mengoptimalkan perputaran data tambahan dalam pengujian statistik
- [SPARK-51385] [SC-190486][sql] Menormalkan proyeksi yang telah ditambahkan pada DeduplicateRelations untuk deduplikasi keluaran anak union
- [SPARK-51357] [SC-190485][sql] Mempertahankan tingkat pencatatan perubahan rencana untuk tampilan
- [SPARK-50654] [SC-186686][ss] CommitMetadata harus mengatur stateUniqueIds ke None di V1
- [SPARK-51362] [SC-190352][sql] Ubah keJSON untuk menggunakan NextIterator API untuk menghilangkan dependensi rekaman yang berdekatan
-
[SPARK-51375] [SC-190355][sql][CONNECT] Menghilangkan pesan log
SparkConnect(Execution|Session)Manager.periodicMaintenance - [SPARK-50596] [SC-184060][python] Upgrade Py4J dari 0.10.9.7 ke 0.10.9.8
- [SPARK-51097] [SC-190456][revert] Kembalikan perubahan metrik instans RocksDB
-
[SPARK-51363] [SC-190343][sql]
Desc As JSONnama kolom pengklusteran - [SPARK-51373] [SC-190370] [SS] Menghapus salinan tambahan untuk prefiks keluarga kolom dari 'ReplyChangelog'
- [SPARK-51378] [SC-190363][core] Terapkan daftar pengecualian JsonProtocol yang dapat diakumulasi pada ExecutorMetricsUpdate dan TaskEndReason
- [SPARK-51369] [SC-190253][sql] Perbaiki variabel kursor untuk bekerja dengan nama kasus campuran
-
[SPARK-51381] [SC-190360][sql][CONNECT] Tampilkan
Session IDdi halamanSpark Connect Session - [SPARK-51119] [SC-188491][sql] Pembaca pada pelaksana yang menyelesaikan EXISTS_DEFAULT tidak boleh memanggil katalog
- [SPARK-51322] [SC-190013][sql] Pesan kesalahan yang lebih baik untuk ekspresi subkueri streaming
- [SPARK-50817] [SC-186642][ss] Perbaiki Pelaporan Kesalahan RocksDB
- [SPARK-51370] [SC-190286] Peningkatan kejelasan kode untuk INSERT kode penguraian INTO di AstBuilder.scala
- [SPARK-51083] [SC-189217][core][16.x] Ubah JavaUtils agar tidak menelan InterruptedExceptions
- [SPARK-51324] [SC-189997][sql] Perbaiki pernyataan FOR berlapis yang melempar kesalahan jika hasil kosong
- [SPARK-49756] [SC-178793][sql] Dialek Postgres mendukung pushdown fungsi tanggal dan waktu.
- [SPARK-51270] [SC-190108][sql] Mendukung jenis UUID dalam Varian
- [SPARK-51310] [SC-190018][sql] Memecahkan jenis ekspresi penghasil string default
- [SPARK-49488] [SC-176685][sql] Dialek MySQL mendukung fungsi datetime pushdown.
- [SPARK-50856] [DBR16.x][sc-189812][SS][python][CONNECT] Dukungan Spark Connect untuk TransformWithStateInPandas In Python
-
[SPARK-50553] [SC-190076][connect] Throw
InvalidPlanInputuntuk pesan rencana yang tidak valid - [SPARK-51337] [16.x][sc-190105][SQL] Tambahkan maxRows ke CTERelationDef dan CTERelationRef
- [SPARK-51281] [SC-190033][sql] DataFrameWriterV2 harus menghormati opsi jalur
- [SPARK-51323] [SC-190005][python] Duplikasi "total" pada metrik SQL Python
-
[SPARK-48618] [SC-174007][sql] Menggunakan
ErrorCodedanSQLStateyang dikembalikan dalam SQLException untuk meningkatkan akurasi kesalahan - [SPARK-47871] [SC-162873][sql] Oracle: Peta TimestampType ke TIMESTAMP DENGAN ZONA WAKTU LOKAL
- [SPARK-50993] [SC-187319][sql] Pindahkan nullDataSourceOption dari QueryCompilationErrors ke QueryExecutionErrors
- [SPARK-47761] [SC-162288][sql] Oracle: Mendukung pembacaan AnsiIntervalTypes
- [SPARK-51265] [SC-189826][sql] IncrementalExecution harus mengatur kode eksekusi perintah dengan benar
- [SPARK-50785] [SC-189722][sql] Refaktor pernyataan FOR untuk memanfaatkan variabel lokal secara tepat.
- [SPARK-51315] [SC-189838][sql] Mengaktifkan kolase tingkat objek secara default
- [SPARK-51312] [SC-189824][sql] Memperbaiki createDataFrame dari RDD[Row]
-
[SPARK-51305] [SC-189625][sql][CONNECT] Tingkatkan
SparkConnectPlanExecution.createObservedMetricsResponse - [SPARK-51313] [SC-189816][python] Perbaiki format tanda waktu untuk PySparkLogger
- [SPARK-51095] [SC-189623][core][SQL] Sertakan konteks pemanggil untuk log audit hdfs untuk pemanggilan dari driver
- [SPARK-51292] [SC-189566][sql] Hapus warisan yang tidak perlu dari PlanTestBase, ExpressionEvalHelper dan PlanTest
- [SPARK-50739] [SC-186903][sql][FOLLOW] Sederhanakan ResolveRecursiveCTESuite dengan dsl
- [SPARK-51097] [SC-189428] [SS] Menambahkan metrik instans penyimpanan status untuk versi rekam jepret terakhir yang diunggah di RocksDB
- [SPARK-49912] [SC-189615] Refaktorisasi pernyataan kondisional CASE agar variabel kondisi dievaluasi hanya satu kali
- [SPARK-50655] [16x][sc-189235][SS] Pindahkan pemetaan terkait keluarga kolom virtual ke lapisan basis data daripada encoder
-
[SPARK-51177] [SC-188989][python][CONNECT] Tambahkan
InvalidCommandInputke klien Spark Connect Python -
[SPARK-51278] [SC-189608][python] Gunakan struktur format JSON yang sesuai untuk
PySparkLogger - [SPARK-48530] [SC-189357][sql] Dukungan untuk variabel lokal dalam SQL Scripting
- [SPARK-51258] [SC-189551][sql] Hapus warisan yang tidak perlu dari SQLConfHelper
- [SPARK-50739] [SC-186818][sql] CTE Rekursif. Perubahan pada penganalisis untuk memecahkan dan menyelesaikan komponen rekursi.
- [SPARK-51284] [SC-189483][sql] Perbaiki eksekusi Skrip SQL untuk hasil kosong
- [SPARK-50881] [SC-188407][python] Gunakan skema cache jika memungkinkan dalam menyambungkan dataframe.py
- [SPARK-51274] [SC-189516][python] PySparkLogger harus menghormati argumen kata kunci yang diharapkan
- [SPARK-50636] [SC-184783][sql] Memperluas CTESubstitution.scala untuk membuatnya sadar akan rekursi
-
[SPARK-50960] [SC-188821][python][CONNECT] Tambahkan
InvalidPlanInputke klien Spark Connect Python - [SPARK-51109] [SC-188394][sql] CTE sebagai kolom pengelompokan dalam ekspresi subkueri
- [SPARK-51067] [16.x][sc-188855][SQL] Mengembalikan kolase tingkat sesi untuk kueri DML dan menerapkan kolase tingkat objek untuk kueri DDL
- [SPARK-50849] [SC-189071][connect] Tambahkan contoh proyek untuk menunjukkan Pustaka Server Spark Connect
- [SPARK-51259] [SC-189344][sql] Refaktor alami dan menggunakan komputasi kunci gabungan
- [SPARK-51185] [SC-188832][core] Kembalikan penyederhanaan ke PartitionedFileUtil API untuk mengurangi persyaratan memori
- [SPARK-51237] [16x][sc-189028][SS] Tambahkan detail API untuk API pembantu transformWithState baru sesuai kebutuhan
- [SPARK-51247] [SC-189236][sql] Pindahkan SubstituteExecuteImmediate ke batch 'penyelesaian' dan disiapkan untuk variabel lokal dalam SQL Scripting.
-
[SPARK-50403] [SC-186416][sql] Perbaiki parameter
EXECUTE IMMEDIATE - [SPARK-50598] [SC-183992][sql] PR awal yang tidak melakukan perubahan operasional, tetapi menambahkan parameter baru ke kelas yang sudah ada yaitu UnresolvedWith, CTERelationRef, dan CTERelationDef untuk memungkinkan implementasi rekursif CTE di masa depan.
- [SPARK-48114] [SC-189176][sql] Pindahkan validasi subkueri dari CheckAnalysis
-
[SPARK-50767] [SC-189169][sql] Hapus pengkodean
from_json - [SPARK-51242] [SC-189200][conenct][PYTHON] Meningkatkan performa Kolom saat DQC dinonaktifkan
- [SPARK-51202] [SC-189208][ml][PYTHON] Luluskan sesi dalam penulis Python algoritma meta
- [SPARK-51246] [SC-189175][sql] Membuat InTypeCoercion menghasilkan Casts yang terselesaikan
-
[SPARK-51192] [SC-189070][connect] Mengekspos
processWithoutResponseObserverForTestingdiSparkConnectPlanner - [SPARK-51183] [SC-189010][sql] Tautan ke spesifikasi Parquet dalam dokumen Varian
-
[SPARK-51189] [SC-188829][core] Promosikan
JobFailedkeDeveloperApi -
[SPARK-51184] [SC-188801][core] Hapus logika
TaskState.LOSTdariTaskSchedulerImpl - [SPARK-51218] [SC-189012][sql] Hindari map/flatMap dalam NondeterministicExpressionCollection
- [SPARK-51228] [SC-189022][sql] Memperkenalkan normalisasi subkueri ke NormalizePlan
- [SPARK-51113] [SC-188883][sql] Perbaiki kebenaran dengan UNION/EXCEPT/INTERSECT di dalam tampilan atau EXECUTE IMMEDIATE
-
[SPARK-51209] [SC-188987][core] Tingkatkan
getCurrentUserNameuntuk menangani Java 24+ - [SPARK-50953] [SC-188409][python][CONNECT] Tambahkan dukungan untuk jalur non-literal di VariantGet
- [SPARK-51181] [SC-188854] [SQL] Memberlakukan determinisme saat mengeluarkan ekspresi non deterministik dari rencana logis
- [SPARK-50872] [SC-186901][sql][UI] Membuat ekspresi ToPrettyString tidak memengaruhi presentasi UI
- [SPARK-51150] [SC-188512][ml] Secara eksplisit meneruskan sesi dalam penulisan algoritma meta
- [SPARK-51008] [SC-188655][sql] Tambahkan ResultStage untuk AQE
- [SPARK-51114] [SC-188633] [SQL] Refaktorisasi aturan PullOutNondeterministic
- [SPARK-51160] [SC-188666][sql] Refaktor resolusi fungsi literal
- [SPARK-51127] [SC-188366][python] Matikan pekerja Python saat waktu diam habis batas
- [SPARK-51099] [SC-188350][python] Tambahkan log saat pekerja Python terlihat macet
- [SPARK-51157] [SC-188536][sql] Tambahkan anotasi Scala @varargs yang hilang untuk API fungsi Scala
-
[SPARK-51155] [CORE] Membuat
SparkContextmenampilkan total runtime setelah berhenti - [SPARK-51140] [SC-188487][ml] Urutkan param sebelum menyimpan
- [SPARK-51135] [SC-188392][sql] Perbaiki ViewResolverSuite untuk mode ANSI
- [SPARK-51057] [SC-188191][ss] Hapus API varian berbasis Scala Option untuk status nilai
- [SPARK-51131] [SC-188359][sql] Melempar pengecualian saat Skrip SQL ditemukan di dalam perintah EXECUTE IMMEDIATE
- [SPARK-51048] [SC-188369][core] Dukungan menghentikan konteks java spark dengan kode keluar
- [SPARK-50234] [SC-181433][python][SQL] Meningkatkan pesan kesalahan dan menguji transpose DataFrame API
- [SPARK-51074] [SC-188153][ss][CONNECT] Atur batas waktu untuk mengomunikasikan konfigurasi init dalam streaming foreachBatch
- [SPARK-48353] [SC-187986][sql] Pengenalan mekanisme Penanganan Pengecualian dalam SQL Scripting
- [SPARK-50596] [SC-184060][python] Upgrade Py4J dari 0.10.9.7 ke 0.10.9.8
- [SPARK-51043] [SC-187928][ss][CONNECT] Pengelogan pengguna berbutir halus untuk Spark Connect foreachBatch
-
[SPARK-51084] [ES-1336002][sc-188171][SQL] Tetapkan kelas kesalahan yang sesuai untuk
negativeScaleNotAllowedError - [SPARK-51042] [SC-188216][sql] Membaca dan menulis bidang-bidang interval bulan dan hari dalam satu kali pemanggilan di kelas Unsafe*
- [SPARK-51010] [SC-188188][sql] Memperbaiki AlterColumnSpec yang tidak melaporkan status yang telah diselesaikan dengan benar
- [SPARK-50799] [SC-188169][python] Menyempurnakan docstring rlike, length, octet_length, bit_length, dan transform
-
[SPARK-51061] [SC-187910][core] Sembunyikan info
Jettydi REST Submission API - [SPARK-51055] [SC-187993][ss][CONNECT] Streaming foreachBatch harus memanggil logika init di dalam percobaan
- [SPARK-50982] [SC-188059][sql] Mendukung lebih banyak fungsionalitas jalur baca SQL/DataFrame dalam Penganalisis akses tunggal
-
[SPARK-51081] [SC-188092][sql] Refaktor
Join.outputuntuk penyelesai satu lintasan -
[SPARK-51064] [SC-188039][sql] Aktifkan
spark.sql.sources.v2.bucketing.enabledsecara default - [SPARK-50883] [LC-5998][sc-187120][SQL] Dukungan mengubah beberapa kolom dalam perintah yang sama
- [SPARK-51034] [SC-187985][sql] Format Ulang Deskripsikan Sebagai JSON dict statistik untuk dapat diuraikan
- [SPARK-51058] [SC-187961][python] Hindari menggunakan jvm. SparkSession
- [SPARK-51056] [SC-187871][python] Hindari pembuatan objek yang tidak perlu di SparkSession.getActiveSession.
- [SPARK-50967] [SC-187860][ss] Tambahkan opsi untuk mengabaikan pengeluaran kunci status awal dalam operator FMGWS
- [SPARK-50813] [SC-186457][sql] Izinkan hanya nama label yang tidak memenuhi syarat di dalam Skrip SQL
- [SPARK-50858] [SC-187399][python] Tambahkan konfigurasi untuk menyembunyikan jejak tumpukan UDF Python
- [SPARK-50853] [SC-187219][core] Tutup saluran tulis file acak sementara
- [SPARK-50663] [SC-187541][sql] Perbaiki tata bahasa untuk pernyataan IF ELSE (ELSE IF -> ELSEIF)
-
[SPARK-51027] [SC-187502][sql] Mencegah pemanggilan
HiveClient.runSqlHivedi lingkungan non-pengujian - [SPARK-50977] [SC-187400][sc-187006][CORE] Meningkatkan kemampuan logika untuk mengagregasi hasil akumulator
- [SPARK-51001] [SC-187442][sql] Memperbaiki arrayEquals
- [SPARK-50962] [SC-187168][sql] Menghindari StringIndexOutOfBoundsException pada AttributeNameParser
- [SPARK-50683] [SC-184728][sql] Sisipkan ekspresi umum dalam 'With' jika digunakan sekali
- [SPARK-50959] [SC-187139][ml][PYTHON] Mengabaikan pengecualian dari JavaWrapper.del
- [SPARK-50558] [SC-187337][sql] Memperkenalkan simpleString untuk ExpressionSet
- [SPARK-50648] [SC-184706][core] Membersihkan tugas zombie dalam tahap yang belum berjalan ketika pekerjaan dibatalkan
-
[SPARK-50990] [SC-187316][sql] Pemfaktoran ulang resolusi
UpCastdariAnalyzer - [SPARK-49491] [SC-184714][sql] Ganti AnyRefMap dengan HashMap
- [SPARK-50685] [SC-186941][python] Meningkatkan performa Py4J dengan memanfaatkan getattr
- [SPARK-50688] [SC-184666][sql] Hilangkan ambiguitas untuk rowTag yang hilang di jalur penulisan XML
-
[SPARK-50976] [SC-187265][ml][PYTHON] Perbaiki penyimpanan/pemuatan
TargetEncoder - [SPARK-49639] [SC-187297][sql] Hapus petunjuk konfigurasi ANSI di INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
- [SPARK-50118] [SC-187110]Kembalikan "[CONNET] Reset cache status terisolasi saat tugas berjalan"
- [SPARK-47579] [16.x][sc-166971][CORE][part3] Spark core: Memigrasikan logInfo dengan variabel ke kerangka kerja pengelogan terstruktur
- [SPARK-50669] [SC-184566][es-1327450][PHOTON][test-only] Memperluas pengujian unit photon untuk ekspresi TimestampAdd dengan tipe data panjang
- [SPARK-50909] [SC-187119][python] Atur faulthandler di PythonPlannerRunners
- [SPARK-50774] [SC-186349][sql] Sentralisasi nama kolase di satu tempat
- [SPARK-50804] [SC-186684][sql] to_protobuf() tidak boleh melempar MatchError
- [SPARK-50957] [SC-187136][protobuf] Menjadikan protobuf.utils.SchemaConverters privat
- [SPARK-50900] [SC-186948][ml][CONNECT] Tambahkan VectorUDT dan MatrixUDT ke ProtoDataTypes
- [SPARK-50895] [SC-186998][sql] Buat antarmuka umum untuk ekspresi yang menghasilkan jenis string default
- [SPARK-50558] [SC-184216][sql] Tambahkan batas pengelogan yang dapat dikonfigurasi untuk jumlah elemen di InSet dan In
- [SPARK-50875] [SC-186951][sql][16.x] Tambahkan kolase RTRIM ke TVF
-
[SPARK-50579] [SC-183826][sql] Perbaiki
truncatedString
Dukungan pada driver Databricks ODBC/JDBC
Databricks mendukung driver ODBC/JDBC yang dirilis dalam 2 tahun terakhir. Silakan unduh driver terbaru dan lakukan peningkatan (unduh ODBC, unduh JDBC).
Lingkungan sistem
-
Sistem Operasi: Ubuntu 24.04.2 LTS
- Catatan: Ini adalah versi Ubuntu yang digunakan oleh kontainer Databricks Runtime. Kontainer Databricks Runtime berjalan pada komputer virtual penyedia cloud, yang mungkin menggunakan versi Ubuntu atau distribusi Linux yang berbeda.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Danau Delta: 3.3.0
Pustaka Python yang diinstal
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| tipe beranotasi | 0.7.0 | asttoken | 2.0.5 | astunparse | 1.6.3 |
| perintah otomatis | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| Azure Storage File Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | hitam | 24.4.2 |
| blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools (perangkat untuk caching) | 5.3.3 | sertifikat | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | charset-normalizer | 2.0.4 | klik | 8.1.7 |
| cloudpickle (perpustakaan Python untuk serialisasi objek) | 2.2.1 | Komunikasi | 0.2.1 | Contourpy | 1.2.0 |
| Kriptografi | 42.0.5 | pengendara sepeda | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| penghias | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| konversi docstring ke markdown | 0.11 | Mengeksekusi | 0.8.3 | gambaran umum aspek | 1.1.1 |
| filelock | 3.15.4 | alat pengelola font | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth (autentikasi Google) | 2.35.0 |
| google-cloud-core | 2.4.1 | penyimpanan awan Google | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media (layanan media berkelanjutan dari Google) | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | IDNA | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | memfleksi | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.teks | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient (klien layanan web yang menggunakan RESTful) | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline (modul untuk menampilkan grafik secara inline) | 0.1.6 | Mccabe | 0.7.0 |
| mlflow-skinny (versi ringan) | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy (perpustakaan Python untuk operasi numerik) | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | opentelemetry-konvensi-semantik | 0.48b0 | pengemasan | 24.1 |
| Panda | 1.5.3 | pengurai | 0.8.3 | spesifikasi jalur | 0.10.3 |
| kambing hitam | 0.5.6 | pexpect | 4.8.0 | bantal | 10.3.0 |
| pipa | 24,2 | platformdirs | 3.10.0 | plotly | 5.22.0 |
| pengaya | 1.0.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic (perpustakaan Python untuk validasi data) | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | python-dateutil | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML (paket untuk memproses bahasa YAML dalam Python) | 6.0.1 | pyzmq | 25.1.2 | requests | 2.32.2 |
| tali | 1.12.0 | rsa | 4.9 | s3transfer | 0.10.2 |
| scikit-learn | 1.4.2 | scipy (perpustakaan Python untuk komputasi ilmiah) | 1.13.1 | Seaborn (perpustakaan Python untuk visualisasi data) | 0.13.2 |
| setuptools | 74.0.0 | Enam | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id | 5.11 | stack-data | 0.2.0 |
| statsmodels (paket Python untuk pemodelan statistik) | 0.14.2 | kegigihan | 8.2.2 | threadpoolctl | 2.2.0 |
| Tokenisasi-RT | 4.2.1 | tomli | 2.0.1 | Tornado | 6.4.1 |
| traitlets | 5.14.3 | typeguard (penjaga tipe) | 4.3.0 | type-protobuf | 3.20.3 |
| type-psutil | 5.9.0 | type-pytz | 2023.3.1.1 | Types-PyYAML | 6.0.0 |
| jenis permintaan | 2.31.0.0 | tipe-setuptools | 68.0.0.0 | tipe-enam | 1.16.0 |
| jenis-urllib3 | 1.26.25.14 | ekstensi pengetikan (typing_extensions) | 4.11.0 | ujson | 5.10.0 |
| pembaruan otomatis tanpa pengawasan | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | apa itu patch | 1.0.2 |
| wheel | 0.43.0 | terbungkus | 1.14.1 | yapf | 0.33.0 |
| zipp | 3.17.0 |
Perpustakaan R yang terinstal
Perpustakaan R diinstal dari cuplikan CRAN Posit Package Manager pada 04-08-2024.
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| anak panah | 16.1.0 | askpass | 1.2.0 | pastikanbahwa | 0.2.1 |
| pemindahan fitur ke versi lama (backports) | 1.5.0 | dasar | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | sedikit | 4.0.5 | bit-64 | 4.0.5 |
| bitops | 1,0-8 | blob | 1.2.4 | sepatu bot | 1.3-30 |
| menyeduh | 1.0-10 | Brio | 1.1.5 | sapu | 1.0.6 |
| bslib | 0.8.0 | cashmere | 1.1.0 | layanan panggilan | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | kronogram | 2.3-61 |
| kelas | 7.3-22 | CLI | 3.6.3 | pemangkas | 0.8.0 |
| jam dinding | 0.7.1 | kluster | 2.1.6 | codetools | 0.2-20 |
| ruang warna | 2.1-1 | commonmark | 1.9.1 | pengkompilasi | 4.4.0 |
| config | 0.3.2 | Bimbang | 1.2.0 | cpp11 | 0.4.7 |
| kriyon | 1.5.3 | kredensial | 2.0.1 | melengkung | 5.2.1 |
| data.table (sebuah paket untuk pengolahan data table) | 1.15.4 | kumpulan data | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | deskripsi | 1.4.3 | devtools | 2.4.5 |
| bagan | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.36 |
| pencahayaan turun | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | elipsis | 0.3.2 | menilai | 0.24.0 |
| penggemar | 1.0.6 | warna-warna | 2.1.2 | pemetaan cepat | 1.2.0 |
| fontawesome | 0.5.2 | untuk kucing | 1.0.0 | foreach (pengulangan untuk setiap elemen) | 1.5.2 |
| asing | 0.8-86 | bengkel pandai besi | 0.2.0 | fs | 1.6.4 |
| masa depan | 1.34.0 | menerapkan di masa depan | 1.11.2 | kumur | 1.5.2 |
| obat generik | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | variabel global | 0.16.3 | lem | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Grafik | 4.4.0 | grDevices | 4.4.0 | kisi | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtabel | 0.3.5 | topi keras | 1.4.0 | tempat aman | 2.5.4 |
| lebih tinggi | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Pengiterasi | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | Pelabelan | 0.4.3 |
| nanti | 1.3.2 | rangka | 0.22-5 | lahar | 1.8.0 |
| siklus hidup | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | Massa | 7.3-60.0.1 |
| Matrix | 1.6-5 | memosankan | 2.0.1 | Metode | 4.4.0 |
| mgcv | 1.9-1 | pantomim | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | Agustus 2016 - Januari 2017 | openssl | 2.2.0 | paralel | 4.4.0 |
| secara paralel | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pujian | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | ProsesX | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | Kemajuan | 1.2.3 |
| progresr | 0.14.0 | janji | 1.3.0 | proto | 1.0.0 |
| proksi | 0,4-27 | P.S. | 1.7.7 | menggeram lembut | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest (algoritma pembelajaran mesin) | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | dapat direaksi | 0.4.4 |
| reactR | 0.6.0 | alat baca | 2.1.5 | readxl (membaca file Excel) | 1.4.3 |
| recipes | 1.1.0 | pertandingan ulang | 2.0.0 | pertandingan ulang 2 | 2.1.2 |
| pengontrol jarak jauh | 2.5.0 | contoh replikasi | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| timbangan / sisik | 1.3.0 | selektor | 0,4-2 | informasi sesi | 1.2.2 |
| bentuk | 1.4.6.1 | mengkilap | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | spasial | 7.3-17 |
| garis lengkung | 4.4.0 | sqldf | 0,4-11 | SQUAREM | 2021.1 |
| statistik | 4.4.0 | statistik4 | 4.4.0 | string | 1.8.4 |
| stringr | 1.5.1 | bertahan hidup | 3.6-4 | gaya berani | 5.17.14.1 |
| Sistem | 3.4.2 | systemfonts | 1.1.0 | bahasa pemrograman Tcl/Tk | 4.4.0 |
| ujiitu | 3.2.1.1 | pemformatan teks | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| perubahan jam | 0.3.0 | TanggalWaktu | 4032.109 | tinytex | 0.52 |
| perangkat | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| gunakan ini | 3.0.0 | utf8 | 1.2.4 | Utilitas | 4.4.0 |
| UUID (Pengidentifikasi Unik Universal) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| kumis | 0.4.1 | dengan | 3.0.1 | xfun | 0,46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | zip | 2.3.1 |
Pustaka Java dan Scala yang diinstal (versi kluster Scala 2.12)
| ID Kelompok | Identifikasi Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klien Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | AWS Java SDK untuk CloudHSM | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfigurasi SDK Java untuk AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-impor-ekspor | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Pembelajaran Mesin | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks (SDK Java untuk OpsWorks) | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) | 1.12.638 |
| com.amazonaws | SDK Java untuk Storage Gateway AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Dukungan | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | aliran | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | bayangan-kriogenik | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.3.4 |
| com.fasterxml.jackson.core | Jackson Annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | kafein | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | sistem_asli-java | 1.1 |
| com.github.fommil.netlib | sistem_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-penduduk asli |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | Annotasi yang rentan terhadap kesalahan | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | jambu biji | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | pembuat profil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | kode_sumber_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (algoritma kompresi) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| koleksi umum | koleksi umum | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| unggah berkas pada commons | unggah berkas pada commons | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (perpustakaan Java untuk fungsi pencatatan) | commons-logging (perpustakaan Java untuk fungsi pencatatan) | 1.1.3 |
| kolam umum | kolam umum | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Tidak peduli | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.3 |
| io.dropwizard.metrics | metrik dan anotasi | 4.2.19 |
| io.dropwizard.metrics | inti metrik | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | pengukuran-pemeriksaan kesehatan | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrik-jmx | 4.2.19 |
| io.dropwizard.metrics | metrik-json | 4.2.19 |
| io.dropwizard.metrics | metrik-jvm | 4.2.19 |
| io.dropwizard.metrics | metrik-servlet | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | Netty Buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-kodek-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-Linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | Kelas netty-tcnative | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll (kelas transportasi netty - epoll) | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_umum | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway (gateway pendorong sederhana) | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | pengumpul | 0.12.0 |
| jakarta.anotasi | jakarta.anotasi-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | Transaction-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | mentimun acar | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| jaring.bunga salju | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_gabungan_semua | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | format tanda panah | 15.0.0 |
| org.apache.arrow | inti-memori-panah | 15.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-koleksi4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | Commons-Math3 | 3.6.1 |
| org.apache.commons | commons-text (teks umum) | 1.10.0 |
| org.apache.curator | kurator dan klien | 2.13.0 |
| org.apache.curator | kerangka kerja kurator | 2.13.0 |
| org.apache.curator | kurasi resep | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | pertandingan derbi | 10.14.2.0 |
| org.apache.hadoop | lingkungan kerja klien Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (antarmuka perintah untuk Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API penyimpanan hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) | 2.3.9 |
| org.apache.hive.shims | Pengatur Jadwal Hive Shims | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | tanaman anggur | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json (pola tata letak JSON di log4j) | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | anotasi penonton | 0.13.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.9.2 |
| org.apache.zookeeper | penjaga kebun binatang-jute | 3.9.2 |
| org.checkerframework | pemeriksa kualitas | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Pengompilasi Umum | 3.0.16 |
| org.codehaus.janino | Januari | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Koleksi gerhana | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | lanjutan dermaga | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http (protokol HTTP untuk server Jetty) | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | keamanan jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Aplikasi web Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klien | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-pemindai lokasi | 2.6.1 |
| org.glassfish.hk2 | hk2-utilitas | 2.6.1 |
| org.glassfish.hk2 | osgi-penanda-sumber-daya | 1.0.3 |
| org.glassfish.hk2.external | aopalliance (dikemas ulang) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-inti | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey biasa | 2.40 |
| org.glassfish.jersey.core | Jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | Hibernate Validator | 6.1.7.Terakhir |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotasi | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | pengganjal | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | antarmuka pengujian | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | kompatibel dengan ScalaTest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |