Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 17.3 LTS, yang didukung oleh Apache Spark 4.0.0.
Azure Databricks merilis versi LTS ini pada Oktober 2025.
Fitur dan peningkatan baru
-
EXECUTE IMMEDIATEmenggunakan ekspresi konstanta -
LIMIT ALLdukungan untuk CTEs rekursif - JDK 21 untuk komputasi klasik (pratinjau publik)
- Menambahkan ke file dalam volume Katalog Unity mengembalikan kesalahan yang benar
- TABLE dukungan argumen untuk Unity Catalog Python UDTFs
-
st_dumpdukungan fungsi - Fungsi cincin interior poligon sekarang didukung
-
remote_queryfungsi berjenis tabel (pratinjau publik)
EXECUTE IMMEDIATE menggunakan ekspresi konstanta
Anda sekarang dapat meneruskan ekspresi konstanta sebagai string SQL dan sebagai argumen ke penanda parameter dalam EXECUTE IMMEDIATE pernyataan.
LIMIT ALL dukungan untuk CTEs rekursif
Sekarang Anda dapat menggunakan LIMIT ALL untuk menghapus pembatasan ukuran total pada ekspresi tabel umum (CTA) rekursif.
JDK 21 untuk komputasi klasik (pratinjau publik)
Java Development Kit (JDK) 21 berada dalam pratinjau publik untuk komputasi klasik. Untuk mengaktifkannya, lihat Membuat kluster dengan versi JDK tertentu.
Menambahkan ke file dalam volume Katalog Unity menghasilkan pesan kesalahan yang tepat.
Kode apa pun yang mencoba menambahkan konten ke file volume Katalog Unity sekarang gagal dengan pesan kesalahan "Pencarian ilegal". Sebelumnya, gagal dengan kesalahan "operasi tidak didukung" yang salah.
TABLE dukungan argumen untuk Unity Catalog Python UDTFs
Unity Catalog Python UDTFs sekarang mendukung TABLE argumen, memungkinkan fungsi untuk menerima seluruh tabel sebagai parameter input, memungkinkan transformasi dan agregasi data yang lebih kompleks pada himpunan data terstruktur. Lihat Fungsi tabel yang ditentukan pengguna (UDTF) Python di Unity Catalog. Dukungan argumen tabel telah didukung ke Databricks Runtime 17.2.
st_dump dukungan fungsi
Anda sekarang dapat menggunakan fungsi st_dump untuk mendapatkan larik yang berisi geometri tunggal dari geometri input. Silakan lihat fungsi st_dump.
Fungsi cincin interior poligon sekarang didukung
Anda sekarang dapat menggunakan fungsi berikut untuk bekerja dengan cincin interior poligon:
-
st_numinteriorrings: Dapatkan jumlah batas dalam (cincin) poligon. Silakan lihat fungsist_numinteriorrings. -
st_interiorringn: Ekstrak batas bagian dalam ke-n dari poligon dan kembalikan sebagai garis. Silakan lihat fungsist_interiorringn.
remote_query fungsi bernilai tabel (pratinjau publik)
Anda sekarang dapat menggunakan remote_query fungsi bernilai tabel untuk menjalankan kueri pada mesin database jarak jauh dan mengembalikan hasil tabular. Fungsi ini mengambil data dari sistem jarak jauh menggunakan kredensial dari koneksi Katalog Unity dan mendukung berbagai opsi konektor untuk database SQL dan NoSQL. Lihat fungsi bernilai tabel remote_query.
Perubahan perilaku
-
input_file_namefungsi tidak lagi didukung dan tunduk pada penghapusan di masa mendatang - Pengaturan default untuk daftar inkremental Auto Loader telah diubah
-
Mendukung informasi refresh MV/ST di
DESCRIBE EXTENDED AS JSON -
Menambahkan kolom metadata ke
DESCRIBE QUERYdanDESCRIBE TABLE - Memperbaiki permasalahan konversi nilai temporal dalam struktur literal saat menggunakan mode Connect
-
Ubah presisi desimal dan skalakan ke
SYSTEM_DEFAULTdalam mode Sambungkan - Dukungan untuk jenis kompleks dalam pengamatan di klien Spark Connect Scala
- Melestarikan nilai null dalam literal array, map, dan struct
- Mempertahankan nullability untuk literal yang diketik
- Memperbaiki konversi kelas kasus dalam array dan memetakan literal
-
Penanganan struktur null yang benar saat menghapus
NullTypekolom - Peningkatan penanganan struktur null dalam Parquet
-
Meningkatkan
aws-msk-iam-authpustaka untuk Kafka
input_file_name fungsi tidak lagi didukung dan tunduk pada penghapusan di masa mendatang
Fungsi input_file_name tidak digunakan lagi sejak Databricks Runtime 13.3 LTS karena tidak dapat diandalkan.
Fungsi ini tidak lagi didukung di Databricks Runtime 17.3 LTS ke atas karena tidak dapat diandalkan.
Gunakan _metadata.file_name sebagai gantinya.
Daftar inkremental Auto Loader berubah secara default
Default untuk opsi yang tidak digunakan cloudFiles.useIncrementalListing lagi telah berubah dari auto ke false. Azure Databricks sekarang melakukan daftar direktori lengkap alih-alih daftar bertahap untuk mencegah file yang terlewat karena pengurutan non-leksikografis. Misalnya, 10-01-2025.csv berada sebelum 8-01-2025.csv secara leksikografis.
Databricks merekomendasikan migrasi ke peristiwa file untuk penemuan file yang lebih cepat dan lebih andal.
Untuk mempertahankan perilaku sebelumnya, atur cloudFiles.useIncrementalListing secara eksplisit ke auto.
Dukungan informasi refresh MV/ST di DESCRIBE EXTENDED AS JSON
Azure Databricks sekarang menghasilkan bagian untuk tampilan materialisasi dan informasi penyegaran tabel streaming pada keluaran DESCRIBE EXTENDED AS JSON, yang mencakup waktu penyegaran terakhir, jenis penyegaran, status, dan jadwal.
Menambahkan kolom metadata ke DESCRIBE QUERY dan DESCRIBE TABLE
Azure Databricks sekarang menyertakan kolom metadata dalam output DESCRIBE QUERY dan DESCRIBE TABLE untuk metadata semantik.
Untuk DESCRIBE QUERY, saat menjelaskan kueri dengan tampilan metrik, metadata semantik menyebar melalui kueri jika dimensi direferensikan secara langsung dan pengukuran menggunakan fungsi .MEASURE()
Untuk DESCRIBE TABLE, kolom metadata hanya muncul untuk tampilan metrik, bukan jenis tabel lainnya.
Memperbaiki konversi nilai temporal dalam literal struct saat menggunakan mode Connect
Dalam mode Spark Connect, literal struct di TypedLit sekarang menangani nilai temporal dengan benar alih-alih melempar pengecualian. Sebelumnya, mencoba menggunakan nilai temporal (seperti tanggal atau tanda waktu) dalam literal struktur akan menghasilkan pengecualian.
Ubah presisi desimal dan skalakan ke SYSTEM_DEFAULT dalam mode Sambungkan
Saat menggunakan mode Spark Connect di Scala, presisi desimal dan skala dalam array dan literal peta sekarang diubah menjadi SYSTEM_DEFAULT (38, 18). Perubahan ini hanya memengaruhi rencana logis (misalnya, output explain() perintah) dan tidak memengaruhi hasil kueri.
Dukungan untuk jenis kompleks dalam pengamatan di klien Spark Connect Scala
Klien Spark Connect Scala sekarang mendukung jenis array, map, dan struct dalam observasi, menjadikan perilaku sesuai dengan kluster khusus. Sebelumnya, mencoba menggunakan jenis kompleks ini dalam pengamatan akan menghasilkan pengecualian.
Mempertahankan nilai null dalam literal array, peta, dan struct
Dalam mode Spark Connect, nilai null di dalam array, map, dan struct literal sekarang dipertahankan alih-alih diganti dengan nilai default protobuf. Sebelumnya, nilai null salah diganti dengan nilai default seperti 0 untuk bilangan bulat, string kosong untuk jenis string, dan false untuk jenis boolean.
Mempertahankan nullability untuk literal yang ditik
Klien Spark Connect Scala sekarang mempertahankan nullability array dan jenis peta dengan benar untuk literal yang ditik. Sebelumnya, elemen array dan nilai peta selalu diperlakukan sebagai nullable, terlepas dari definisi jenis aktual.
Memperbaiki konversi kelas kasus dalam array dan memetakan literal
Dalam mode Spark Connect, array dan petakan literal di TypedLit sekarang menangani nilai kelas kasus dengan benar alih-alih melemparkan pengecualian. Sebelumnya, mencoba menggunakan nilai kelas kasus dalam array atau literal peta akan menghasilkan pengecualian.
Penanganan struktur yang null yang benar saat menghapus kolom NullType
Saat menulis ke tabel Delta, Azure Databricks sekarang mempertahankan nilai struct null dengan benar saat menghilangkan NullType kolom dari skema. Sebelumnya, struktur null salah diganti dengan nilai struct non-null di mana semua bidang diatur ke null. Misalnya, jika menyisipkan nilai struct null, maka nantinya akan dibaca kembali sebagai struct dengan bidang null, bukan sebagai struct null.
Peningkatan penanganan struct null di Parquet
Azure Databricks sekarang mendeteksi struk null dengan benar ketika semua bidang struct yang diminta hilang dari file Parquet, yang membuat perilaku konsisten antara pembaca Photon dan non-Photon. Sebelumnya, pembaca non-Photon akan menghasilkan NULL untuk seluruh struktur, alih alih struktur dengan bidang null, saat membaca file Parquet di mana semua bidang yang diminta hilang tetapi bidang lain ada.
Tingkatkan aws-msk-iam-auth pustaka untuk Kafka
aws-msk-iam-auth Pustaka telah ditingkatkan ke versi 2.0.1 untuk mendukung pengaturan titik akhir Security Token Service (STS) regional untuk autentikasi IAM Streaming Terkelola untuk Apache Kafka (MSK). Opsi baru awsStsRegion hanya tersedia saat konfigurasi Spark yang sesuai diaktifkan. Peningkatan ini tidak memperkenalkan perubahan perilaku apa pun untuk beban kerja yang ada.
Peningkatan pustaka
Pustaka Python yang ditingkatkan:
Tidak ada pustaka Python yang ditingkatkan dalam versi ini.
Pustaka R yang ditingkatkan:
Tidak ada pustaka R yang dimutakhirkan dalam versi ini.
Pustaka Java yang ditingkatkan:
Tidak ada pustaka Java yang dimutakhirkan dalam versi ini.
Apache Spark
Databricks Runtime 17.3 LTS mencakup Apache Spark 4.0.0. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam versi sebelumnya, serta yang berikut ini:
- SPARK-44856 Kembalikan "[SC-195808][python] Tingkatkan performa serializer panah Python UDTF"
- SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Memperbaiki penanganan nilai null di LiteralValueProtoConverter
- SPARK-53507 Menambahkan info perubahan yang signifikan ke pesan kesalahan
- SPARK-53574 Memperbaiki AnalysisContext yang dihapus selama resolusi paket berlapis
- SPARK-53444 Pengerjaan ulang eksekusi segera
- SPARK-53560 Perulangan crash saat mencoba kembali batch yang tidak dikomit di sumber Kafka dan pemicu AvailableNow
- SPARK-53127 Aktifkan LIMIT SEMUA untuk mengambil alih batas baris rekursi
- SPARK-53574 Kembalikan "[SC-206548] Perbaiki AnalysisContext yang dihapus...
- SPARK-53674 Menangani LSA penganalisis akses tunggal saat menetapkan alias
- SPARK-53492 Tolak ExecutePlan kedua dengan id operasi yang telah selesai
- SPARK-53677 Meningkatkan kemampuan debugging untuk sumber data JDBC saat kueri berisi kesalahan sintaksis
- SPARK-53490 Memperbaiki konversi Protobuf dalam metrik yang diamati
-
SPARK-53671 Mengecualikan argumen kosong dari inferensi jenis evaluasi
@udf - SPARK-53592 Penyesuaian ulang "Buat @udf mendukung UDF ter-vektorisasi"
- SPARK-53654 Pengerjaan ulang "Mendukung seed dalam fungsi UUID"
- SPARK-53429 Mendukung Partisi Passthrough Langsung di API Dataframe PySpark
- SPARK-53372 Paket Runtime Uji Bersama untuk LDP
- SPARK-53574 Memperbaiki AnalysisContext yang dihapus selama resolusi paket berlapis
-
SPARK-53654 Kembalikan "[SC-207022][sql][PYTHON] Dukungan
seeddalam fungsiuuid" - SPARK-53574 Kembalikan "[SC-206548] Perbaiki AnalysisContext yang dihapus selama resolusi rencana berlapis"
- SPARK-53559 Memperbaiki pembaruan sketsa HLL untuk menggunakan byte kunci pengurutan mentah
-
SPARK-53654 Dukungan
seeddalam fungsiuuid - SPARK-52449 Membuat jenis data untuk Expression.Literal.Map/Array opsional
- SPARK-53574 Memperbaiki AnalysisContext yang dihapus selama resolusi paket berlapis
- SPARK-53625 Menyebarluaskan kolom metadata melalui proyeksi untuk mengatasi ketidakcocokan ApplyCharTypePadding
- SPARK-53558 Kembalikan "[SC-206544][sql] Tampilkan nama tabel yang sepenuhnya memenuhi syarat termasuk nama katalog dalam pesan pengecualian saat tabel tidak ditemukan"
- SPARK-53558 Perlihatkan nama tabel yang sepenuhnya memenuhi syarat termasuk nama katalog dalam pesan pengecualian saat tabel tidak ditemukan
-
SPARK-53357 Pembaruan
pandaske 2.3.2 - SPARK-52659Pesan menyesatkan tentang kesalahan modulo pada mode ansi
-
SPARK-53592 Kembalikan "[SC-206971][python] Buat
@udfdukungan vektorisasi UDF" -
SPARK-53592 Membuat
@udfdukungan UDF vektorisasi - SPARK-52601 Mendukung jenis primitif dalam TransformingEncoder
- SPARK-53355 memperbaiki masalah repr numpy 1.x dalam pengujian tipe
- SPARK-53387 Menambahkan dukungan untuk Arrow UDTF dengan PARTITION BY
- SPARK-52991 Menerapkan MERGE INTO dengan SCHEMA EVOLUTION untuk Sumber Data V2
- SPARK-53568 Memperbaiki beberapa bug kecil di logika penanganan kesalahan klien Spark Connect Python
- Pengoptimalan SPARK-43579: Memanfaatkan cache untuk konverter antara Arrow dan pandas agar dapat digunakan kembali
- SPARK-53524 Memperbaiki konversi nilai temporal di LiteralValueProtoConverter
-
SPARK-53600 Merevisi
SessionHolderpesan log waktu akses terakhir -
SPARK-53529 Perbaiki
pysparkklien connect untuk mendukung IPv6 - SPARK-53537 Menambahkan Dukungan untuk Mengurai CONTINUE HANDLER
- SPARK-53623 meningkatkan performa dalam membaca properti dari tabel besar
-
SPARK-53523 Parameter yang dinamai mematuhi
spark.sql.caseSensitive - SPARK-53449 Cukup opsi untuk kelas terkait Pemindaian Sumber Data bawaan
- SPARK-53620 SparkSubmit harus mencetak stacktrace saat exitFn dipanggil
- SPARK-53518 Tidak ada pemotongan untuk catalogString dari Jenis yang Ditentukan Pengguna
- SPARK-53568 Kembalikan "[SC-206538][connect][PYTHON] Perbaiki beberapa bug kecil di logika penanganan kesalahan klien Spark Connect Python"
- SPARK-53602 Peningkatan cadangan profil dan perbaikan dokumen profiler
- SPARK-53402 Mendukung API Himpunan Data Partisi Passthrough Langsung di Spark Connect di Scala
- SPARK-53491 Memperbaiki pemformatan eksponensial untuk inputRowsPerSecond dan processedRowsPerSecond dalam metrik JSON yang sedang berlangsung
- SPARK-53413 Pembersihan acak untuk perintah
- SPARK-53518 Kembalikan "[SC-205989][sql] Tidak ada pemotongan untuk catalogString Jenis yang Ditentukan Pengguna"
- SPARK-53568 Memperbaiki beberapa bug kecil di logika penanganan kesalahan klien Spark Connect Python
- SPARK-53552 Mengoptimalkan fungsi SQL substr
- SPARK-53527 Meningkatkan pengganti bawaan dari analyzeExistenceDefaultValue
- SPARK-53584 Meningkatkan validasi process_column_param dan docstring parameter kolom
-
SPARK-53498 Mengacu
pyspark/pipelines/cli.pysecara Tepat darispark-pipelinesBiner - SPARK-53518 Tidak ada pemotongan untuk catalogString dari Jenis yang Ditentukan Pengguna
-
SPARK-53233 Buat kode yang terkait dengan
streamingmenggunakan nama paket yang benar - SPARK-53598 Periksa keberadaan numParts sebelum membaca properti tabel besar
- SPARK-53372 SDP End to End Testing Suite
- SPARK-53563 Optimalkan: sql_processor dengan menghindari perangkaian string yang tidak efisien
- SPARK-53323 Mengaktifkan pengujian Spark Connect untuk df.asTable() di Arrow UDTF
- SPARK-53157 Memisahkan interval polling antara driver dan eksekutor
- SPARK-53555 Perbaikan: SparkML-connect tidak dapat memuat model tersimpan SparkML (mode warisan)
- SPARK-53361 Mengoptimalkan Komunikasi JVM–Python di TWS dengan Mengelompokkan Beberapa Key ke dalam Satu Batch Arrow
-
SPARK-53233 Kembalikan "[SC-203716][sql][SS][mllib][CONNECT] Membuat kode yang terkait dengan
streamingmenggunakan nama paket yang benar" -
SPARK-53233 Buat kode yang terkait dengan
streamingmenggunakan nama paket yang benar - SPARK-53525 Penggugusan Hasil Spark Connect ArrowBatch
- SPARK-53444 Batalkan "[SC-206536][sql] Rework execute immediate"
- SPARK-53594 Buat UDF Arrow menghormati tipe evaluasi yang ditentukan pengguna
- SPARK-53444 Pengerjaan ulang eksekusi segera
-
SPARK-53582 Perluas
isExtractablesehingga dapat diterapkan padaUnresolvedExtractValue - SPARK-53572 Hindari melempar dari ExtractValue.isExtractable
- SPARK-52346 Memperbaiki inisialisasi penghitung dan logika kenaikan aliran selama pengulangan
- SPARK-53561 Menangkap Pengecualian Interupsi di TransformWithStateInPySparkStateServer saat outputStream.flush untuk menghindari kerusakan pekerja
- SPARK-53512 Penyatuan DSv2 PushDownUtils yang lebih baik
- SPARK-53459 Menggunakan ReadOnlySparkConf di lebih banyak tempat
- SPARK-53549 Selalu tutup alokator panah saat proses permintaan status daftar selesai
- SPARK-53332 Aktifkan StateDataSource dengan titik pemeriksaan status v2 (hanya opsi snapshotStartBatchId)
- SPARK-53550 Partisi output union harus membandingkan atribut kanonis
-
SPARK-53506 Melarang
%antara Desimal dan float berdasarkan ANSI - SPARK-52238 Ganti nama Bidang Spesifikasi Alur "definisi" menjadi 'pustaka'
-
SPARK-53538
ExpandExecharus menginisialisasi proyeksi yang tidak aman - SPARK-53521 Refaktor ekspresi Star
- SPARK-53358 Meningkatkan pesan kesalahan ketidakcocokan tipe output Python UDTF Arrow
- SPARK-53531 Pesan kesalahan yang lebih baik untuk HadoopRDD.getInputFormat
- SPARK-53434 Fungsi 'get' di ColumnarRow juga harus memeriksa 'isNullAt'
- SPARK-53008 Menambahkan validasi rutin akses data OSS SQL UDF
- SPARK-44856 Meningkatkan performa serializer panah UDTF Python
- SPARK-53488 Perbarui CollationTypeCoercion agar kompatibel dengan logika Penganalisis akses tunggal
- SPARK-53029 Dukung koersi tipe pengembalian untuk Arrow Python UDTFs
-
SPARK-53479 Menyelaraskan
==perilaku dengan panda saat membandingkan dengan skalar di bawah ANSI -
SPARK-53497 Larang
/|//|*antara desimal dan float berdasarkan ANSI -
SPARK-53441 Bools
|/&/^None tidak boleh gagal berdasarkan standar ANSI - SPARK-53474 Menambahkan DATA_SOURCE_V2_EXPR_FOLDING conf
- SPARK-53333 Aktifkan StateDataSource dengan titik pemeriksaan status v2 (hanya readChangeFeed)
- SPARK-53502 Meningkatkan penamaan metode di LiteralValueProtoConverter
-
SPARK-52694 Tambahkan
o.a.s.sql.Encoders#udtAPI - SPARK-53499 from_arrow_type harus memperhatikan containsNull di ArrayType
-
SPARK-53515 Hapus yang tidak digunakan
private lazy valdariSchemaOfCsv/Xml - SPARK-53480 Merefaktor kode Arrow Python runner
- SPARK-53481 Membuat kelas antrean Hibrid
- SPARK-53401 Mengaktifkan Partisi Passthrough Langsung di API DataFrame
- SPARK-52930 Gunakan tipe data DataType.Array/Map untuk nilai literal Array/Map
- SPARK-52346 Menyebarkan kolom partisi dari tujuan untuk BatchTableWrite
- SPARK-53342 Perbaiki konverter Arrow untuk menangani beberapa batch catatan dalam satu aliran IPC
- SPARK-53421 Menyebarkan ID Rencana Logis dalam Analisis SDP
-
SPARK-53408 Menghapus fungsi yang tidak digunakan dari
QueryCompilationErrors - SPARK-53044 Ubah konvensi alias impor Pipeline Deklaratif dari "sdp" menjadi "dp"
- SPARK-53450 Nulls diisi secara tak terduga setelah mengubah proses pemindaian tabel hive ke relasi logis
- SPARK-53290 Memperbaiki pemecahan kompatibilitas mundur Metadata
- SPARK-52982 Larang gabung lateral dengan Arrow Python UDTFs
- SPARK-52851 Menghapus API publik untuk alur yang hanya bisa ditambahkan sekali
- SPARK-52511 Dukungan untuk mode dry-run dalam perintah spark-pipelines
- SPARK-53290 Kembalikan "[SC-204277][sql][CONNECT] Perbaikan Pelanggaran Kebalikan-Kompatibilitas Metadata"
- SPARK-53290 Memperbaiki pemecahan kompatibilitas mundur Metadata
- SPARK-52577 Menambahkan uji untuk Alur Deklaratif DatasetManager dengan katalog Hive
- SPARK-53012 Dukung Arrow Python UDTF di Spark Connect
- SPARK-53251 Mengaktifkan pengujian API DataFrame dengan asTable() untuk Arrow Python UDTFs
- SPARK-52432 Melingkupi DataflowGraphRegistry dalam Sesi
- SPARK-52853 Mencegah metode PySpark imperatif dalam alur deklaratif
-
SPARK-52745 Pastikan salah satu dari
schemadancolumnsdi antarmuka Tabel diimplementasikan dancolumnslebih disukai - SPARK-52991 Kembalikan "[SC-204944][sql] Terapkan MERGE INTO dengan SCHEMA EVOLUTION untuk Sumber Data V2"
- SPARK-52981 Menambahkan dukungan argumen tabel untuk Arrow Python UDTFs
-
SPARK-53487 Meningkatkan komentar di
NormalizePlan.scala - SPARK-52991 Menerapkan MERGE INTO dengan SCHEMA EVOLUTION untuk Sumber Data V2
-
SPARK-52281 Ubah
ALTER TABLE ALTER COLUMN TYPE STRINGagar tidak menerapkan kolasi default jika jenis data asli merupakan instansStringType - SPARK-52759 Melempar pengecualian jika pipeline tidak memiliki tabel atau tampilan persisten
- SPARK-51575 Gabungkan pushdown Sumber Data Python & rencanakan pekerja baca
- SPARK-53359 Perbaiki UDTF Arrow untuk menangani hasil sebagai iterator
- SPARK-52757 Ganti nama bidang "rencana" di DefineFlow menjadi "relasi"
- SPARK-52431 Menyelesaikan sentuhan pada runner Deklaratif Pipelines
- SPARK-52591 Memvalidasi kemampuan streaming dari DF yang dikembalikan oleh tabel SDP dan definisi alur mandiri
- SPARK-53030 Mendukung penulis Arrow untuk sumber data Python streaming
- SPARK-52980 Dukungan untuk Arrow Python UDTFs
- SPARK-42841Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_2005
- SPARK-52423 Menambahkan nama paket golang yang hilang ke pipelines.proto
- SPARK-52409 Hanya gunakan PipelineRunEventBuffer dalam pengujian
- SPARK-52533 Mendukung pengaktifan hanya profiler pengemudi
- SPARK-52716 Menghapus komentar dari trait Flow dan referensi-referensinya
- SPARK-52348 Menambahkan dukungan untuk handler Spark Connect untuk perintah alur
-
SPARK-52281 Kembalikan "[SC-198058][sql] Ubah
ALTER TABLE ALTER COLUMN TYPE STRINGuntuk tidak menerapkan kolase default jika jenis data asli adalah contohStringType" - SPARK-49386 Menambahkan ambang batas berbasis memori untuk spill shuffle
-
SPARK-52281 Ubah
ALTER TABLE ALTER COLUMN TYPE STRINGagar tidak menerapkan kolasi default jika jenis data asli merupakan instansStringType - SPARK-53329 Meningkatkan penanganan pengecualian saat menambahkan artefak
- SPARK-52772 Kembalikan "[SC-202707][engrm-327][SQL] Penanganan atribut tabel yang tidak konsisten selama pembaruan"
- SPARK-52772 Penanganan atribut tabel yang tidak konsisten selama pembaruan
SPARK-51739 Validasi skema Arrow dari mapInArrow & mapInPandas & DataSource- Pengujian perilaku jenis UDF Python SPARK-53355
-
SPARK-53443 Perbarui python ke
SPDX-license - SPARK-49968 Fungsi pemisahan menghasilkan hasil yang salah dengan regex kosong dan batas
- SPARK-52582 Meningkatkan penggunaan memori pengurai XML
-
SPARK-53452
from_arrow_typeharus mematuhivalueContainsNull - SPARK-53103 Kembalikan "[SC-204946][ss] Lempar kesalahan jika direktori status tidak kosong saat kueri dimulai"
- SPARK-53103 Melemparkan kesalahan jika direktori status tidak kosong saat kueri dimulai
- SPARK-51575 Kembalikan "[SC-192406][python] Gabungkan pushdown Sumber Data Python & rencanakan pekerja baca"
- SPARK-51575 Gabungkan pushdown Sumber Data Python & rencanakan pekerja baca
- SPARK-53095 Mendukung HMS v4.1
-
SPARK-53126 Refaktor
SparkErrorUtils#stackTraceToStringuntuk menanganinullinput dan menggunakannya untuk menggantiExceptionUtils#getStackTrace -
SPARK-49489 Penghormatan klien HMS
hive.thrift.client.maxmessage.size - SPARK-53108 Menerapkan fungsi time_diff di Scala
- SPARK-45265 Mendukung metastore Apache Hive 4.0
-
SPARK-53255 Larang
org.apache.parquet.Preconditions - SPARK-52142 Tampilkan batasan tabel dalam SHOW CREATE TABLE PERINTAH
- SPARK-52875 Menyederhanakan terjemahan ekspresi V2 jika input bersifat konteks-independen yang dapat dilipat
-
SPARK-53240 Blokir
com.google.common.collect.(ArrayList)?Multimap - SPARK-52875 Batalkan "[SC-201880][sql] Sederhanakan terjemahan ekspresi V2 jika input dapat dilipat tanpa tergantung konteks"
- SPARK-52141 Tampilkan batasan dalam perintah DESC
- SPARK-53386 Mendukung parameter kueri yang diakhir dengan titik koma di konektor JDBC
- SPARK-52875 Menyederhanakan terjemahan ekspresi V2 jika input bersifat konteks-independen yang dapat dilipat
- SPARK-53437 InterpretedUnsafeProjection harus mengatur null 4 byte untuk kolom YearMonthIntervalType
- SPARK-53341 Perluas cakupan uji baku pada DECLARE multivariable
- SPARK-53156 Melacak Metrik Memori Driver saat Aplikasi berakhir
- SPARK-52689 Kirim Metrik DML ke V2Write
- SPARK-52641 Kolom kunci primer tidak boleh bersifat null
- SPARK-48547 Tambahkan flag opt-in agar SparkSubmit secara otomatis memanggil System.exit setelah metode main kode pengguna selesai.
- SPARK-52575 Memperkenalkan atribut contextIndependentFoldable untuk Ekspresi
- SPARK-52860 Mendukung evolusi skema tulis V2 di InMemoryTable
- SPARK-53435 Memperbaiki kondisi lomba di CachedRDDBuilder
- SPARK-51987 Ekspresi DSv2 dalam default kolom saat penulisan
- SPARK-52235 Menambahkan konversi implisit ke Ekspresi DefaultValue V2 yang diteruskan ke DSV2
- SPARK-52236 Menstandarkan analisis pengecualian untuk nilai default
- SPARK-53294 Aktifkan StateDataSource dengan titik pemeriksaan status v2 (hanya opsi batchId)
- SPARK-52095 Ubah kolom ubah tabel untuk meneruskan V2Expression ke DSV2
- SPARK-53415 Cukup opsi untuk FileFormats bawaan
- SPARK-53318 Mendukung jenis waktu berdasarkan make_timestamp_ltz()
- SPARK-53143 Memperbaiki self join di DataFrame API - Join bukan satu-satunya output yang diharapkan dari penganalisis
-
SPARK-53423 Pindahkan semua tag terkait penyelesai akses menyeluruh ke
ResolverTag - SPARK-52116 Meningkatkan pengecualian untuk nilai default non-deterministik
- SPARK-51906 Ekspresi Dsv2 dalam perintah SQL "ALTER TABLE" untuk penambahan kolom
- SPARK-53403 Meningkatkan pengujian add/sub di bawah ANSI
-
SPARK-53418 Dukungan
TimeTypediColumnAccessor - SPARK-52777 Mengaktifkan konfigurasi mode pemutaran ulang di Spark SQL
- SPARK-52485 Pembersihan kode Alur Deklaratif
-
SPARK-53236 Menggunakan konstruktor Java
ArrayListalih-alihLists.newArrayListdalam kode Java - SPARK-53392 Pindahkan penanganan SpecializedArray ke connect-common
-
SPARK-53176 Peluncur Spark harus mematuhi
--load-spark-defaults -
SPARK-53237 Gunakan Java
Base64alih-alihorg.apache.commons.codec.binary.Base64instance -
SPARK-53390 Memunculkan kesalahan saat bool dengan None
astypeke tipe int dalam standar ANSI - SPARK-53109 Mendukung TIME dalam fungsi make_timestamp_ntz dan try_make_timestamp_ntz di Scala
- SPARK-53393 Menonaktifkan profiler memori untuk Arrow Scalar Iterator UDF
- SPARK-53367 menambahkan int ke pemaksaan desimal untuk UDF Arrow
- SPARK-53365 Menyatukan kode untuk mempertahankan konfigurasi dalam tampilan dan UDF
-
SPARK-53228 Gunakan konstruktor Java
Mapalih-alihMaps.new*HashMap() -
SPARK-53197 Gunakan
java.util.Objects#requireNonNullalih-alihcom.google.common.base.Preconditions#checkNotNull -
SPARK-53216 Pindah
is*(Blank|Empty)dariobject SparkStringUtilsketrait SparkStringUtils - SPARK-53385 Evaluasi Pengidentifikasi Refaktor keluar
- SPARK-53384 Mengatur ulang resolusi variabel
-
SPARK-53195 Gunakan Java
InputStream.readNBytesalih-alihByteStreams.read -
SPARK-53205 Dukungan
createParentDirsdiSparkFileUtils -
SPARK-53196 Gunakan Java
OutputStream.nullOutputStreamalih-alihByteStreams.nullOutputStream -
SPARK-53381 Hindari membuat koleksi sementara di
toCatalystStruct - SPARK-53275 Menangani ekspresi stateful saat mengurutkan dalam mode yang ditafsirkan
- SPARK-51585 Dialek Oracle mendukung fungsi tanggalwaktu pushdown
-
SPARK-53200 Gunakan Java
Files.newInputStreamalih-alihFiles.asByteSource().openStream() -
SPARK-53190 Gunakan Java
InputStream.transferToalih-alihByteStreams.copy -
SPARK-53188 Dukungan
readFullydiSparkStreamUtilsdanJavaUtils - SPARK-53354 Menyederhanakan LiteralValueProtoConverter.toCatalystStruct
- SPARK-52873 Lebih membatasi kapan SHJ semi/anti join bisa mengabaikan kunci duplikat di sisi build
-
SPARK-53180 Gunakan Java
InputStream.skipNBytesalih-alihByteStreams.skipFully -
SPARK-53369 Memperbaiki pesan kesalahan untuk UDF dengan
CHAR/VARCHARtipe pengembalian - SPARK-53330 Memperbaiki Arrow UDF dengan DayTimeIntervalType (batas != start/end)
- SPARK-53366 Menerapkan aturan pemformatan ke sql/connect/shims
- SPARK-53348 Selalu mempertahankan nilai ANSI saat membuat tampilan atau mengasumsikannya saat mengkueri jika tidak disimpan
-
SPARK-53119 Dukungan
touchdiSparkFileUtils - SPARK-52592 Mendukung pembuatan ps. Seri dari ps. Seri
- SPARK-53360 Sekali strategi dengan idempotensi pada ConstantFolding tidak boleh rusak
-
SPARK-53135 Dukungan
copyURLToFilediSparkFileUtilsdanJavaUtils -
SPARK-53150 Meningkatkan
list(File|Path)suntuk menangani input yang tidak ada, bukan direktori, dan symlink. -
SPARK-53135 Kembalikan "[SC-203164][core][SQL] Dukungan
copyURLToFilediSparkFileUtilsdanJavaUtils" -
SPARK-53137 Dukungan
forceDeleteOnExitdiSparkFileUtilsdanJavaUtils - SPARK-53352 Perbaiki pesan kesalahan untuk jenis pengembalian yang tidak didukung
- SPARK-53353 Gagalkan Panah Iterator Skalar UDF dengan 0-arg
-
SPARK-53135 Dukungan
copyURLToFilediSparkFileUtilsdanJavaUtils -
SPARK-53101 Dukungan
(left|right)PaddiSparkStringUtils -
SPARK-53117 Dukungan
moveDirectorydiSparkFileUtilsdanJavaUtils -
SPARK-53121 Gunakan
deleteRecursivelyalih-alihFileUtils.forceDelete -
SPARK-53100 Gunakan Java
String.substringalih-alihStringUtils.substring -
SPARK-53092 Blokir
org.apache.commons.lang3.SystemUtils - SPARK-53328 Meningkatkan kemampuan debug untuk SparkML-connect
- SPARK-52065 Menghasilkan struktur rencana lain dengan kolom output (nama, jenis data, kemungkinan null) dalam pencatatan log perubahan rencana
- SPARK-51182 DataFrameWriter harus melempar dataPathNotSpecifiedError ketika jalur tidak ditentukan
-
SPARK-52410 Mendepresiasi
PipelineConfdan menggunakanSqlConfsecara langsung - SPARK-52852 Menghapus spark_conf yang tidak digunakan di create_streaming_table
- SPARK-52714 Menghapus arg komentar yang tidak digunakan di dekorator append_flow
- SPARK-52663 Memperkenalkan bidang nama ke spesifikasi alur
-
SPARK-53091 Blokir
org.apache.commons.lang3.Strings - SPARK-52393 Pendaftaran Elemen Pipeline SQL Graph
-
SPARK-52912 Tingkatkan
SparkStringUtilsuntuk mendukungis(Not)?(Blank|Empty) - SPARK-53307 Menghapus kesalahan RetriesExceeded dari klien Spark Connect Python dan Scala
- SPARK-52346 Eksekusi Pipa Deklaratif dan pencatatan peristiwa
- SPARK-52877 Meningkatkan Performa Serializer Arrow UDF Python
- SPARK-51920 Memperbaiki jenis komposit/berlapis dalam status nilai untuk python TWS
- SPARK-52741 Mode Penghapusan Berkas ShuffleCleanup tidak berfungsi dengan eksekusi non-adaptif
- SPARK-52238 Klien Python untuk Alur Deklaratif
- SPARK-51926 Tambahkan kelas kesalahan INVALID_CONF_VALUE.subXXX ke kesalahan conf
- SPARK-53155 Agregasi global yang lebih rendah tidak boleh diganti dengan proyek
-
SPARK-52911 Hapus
StringUtils.(split|chop)penggunaan - SPARK-51926 Kembalikan "[SC-195096][core][SQL] Tambahkan kelas kesalahan INVALID_CONF_VALUE.subXXX ke kesalahan conf"
- SPARK-53346 Hindari membuat koleksi sementara di toCatalystArray/toCatalystMap
- SPARK-51926 Tambahkan kelas kesalahan INVALID_CONF_VALUE.subXXX ke kesalahan conf
- SPARK-53136 tryWithResource & tryInitializeResource harus menutup sumber daya dengan tenang
-
SPARK-53132 Dukungan
list(File|Path)sdiSparkFileUtilsdanJavaUtils - SPARK-51896 Menambahkan Dukungan Java Enum untuk TypedConfigBuilder
- SPARK-53311 Membuat PullOutNonDeterministic menggunakan ekspresi kanonis
- SPARK-51527 Membuat tingkat log codegen dapat dikonfigurasi melalui SQLConf
- SPARK-52223 Tambahkan SDP Spark Connect Protos
-
SPARK-52283 Pembuatan dan resolusi Alur
DataflowGraphDeklaratif -
SPARK-52880 Tingkatkan
toStringdenganJEP-280alih-alihToStringBuilder - SPARK-53284 Menyesuaikan impor konfigurasi Spark dalam pengujian
- SPARK-53050 Aktifkan MultiIndex.to_series() untuk mengembalikan struct untuk setiap entri
- SPARK-52988 Memperbaiki kondisi balapan di CREATE TABLE dan FUNGSI ketika IF NOT EXISTS digunakan
-
SPARK-52874 Mendukung
o.a.s.util.PairJava Record -
SPARK-52710
DESCRIBE SCHEMAharus mencetak kolasi -
SPARK-49984 Perbaiki
supplementJava(Module|IPv6)Optionsuntuk memperbaruiextraJavaOptionssaja
Driver ODBC/JDBC Azure Databricks yang didukung
Databricks mendukung driver ODBC/JDBC yang dirilis dalam 2 tahun terakhir. Unduh driver dan peningkatan yang baru dirilis (unduh ODBC, unduh JDBC).
Pembaruan pemeliharaan
Lihat Pembaruan pemeliharaan Runtime Databricks.
Lingkungan sistem
- Sistem Operasi: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Danau Delta: 4.0.0
Pustaka Python yang diinstal
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| tipe beranotasi | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| Pengikatan Argon2-cffi | 21.2.0 | anak panah | 1.3.0 | asttoken | 2.0.5 |
| astunparse | 1.6.3 | asinkron-lru | 2.0.4 | atribut | 24.3.0 |
| perintah otomatis | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| Azure Storage Blob | 12.23.0 | Azure Storage File Data Lake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | hitam | 24.10.0 |
| pemutih | 6.2.0 | blinker | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools (perangkat untuk caching) | 5.5.1 | sertifikat | 31 Januari 2025 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| klik | 8.1.7 | cloudpickle (perpustakaan Python untuk serialisasi objek) | 3.0.0 | Komunikasi | 0.2.1 |
| Contourpy | 1.3.1 | Kriptografi | 43.0.3 | pengendara sepeda | 0.11.0 |
| Cython | 3.0.12 | databricks-sdk | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | penghias | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | konversi docstring ke markdown | 0.11 |
| Mengeksekusi | 0.8.3 | gambaran umum aspek | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | filelock | 3.18.0 | alat pengelola font | 4.55.3 |
| Fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth (autentikasi Google) | 2.40.0 |
| google-cloud-core | 2.4.3 | penyimpanan awan Google | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (layanan media berkelanjutan dari Google) | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | memfleksi | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isodurasi | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.teks | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| Spesifikasi JSON Schema | 2023.7.1 | peristiwa Jupyter | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| Terminal Jupyter Server | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient (klien layanan web yang menggunakan RESTful) | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline (modul untuk menampilkan grafik secara inline) | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| penyetelan salah | 2.0.4 | mlflow-skinny (versi ringan) | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | buku_catatan_shim | 0.2.3 | numpy (perpustakaan Python untuk operasi numerik) | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-konvensi-semantik | 0.53b1 | Mengabaikan | 7.4.0 | pengemasan | 24,2 |
| Panda | 2.2.3 | Pandocfilters | 1.5.0 | pengurai | 0.8.4 |
| spesifikasi jalur | 0.10.3 | kambing hitam | 1.0.1 | pexpect | 4.8.0 |
| bantal | 11.1.0 | pipa | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pengaya | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic (perpustakaan Python untuk validasi data) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML (paket untuk memproses bahasa YAML dalam Python) | 6.0.2 |
| pyzmq | 26.2.0 | Merujuk | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | kaya | 13.9.4 |
| tali | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy (perpustakaan Python untuk komputasi ilmiah) | 1.15.1 |
| Seaborn (perpustakaan Python untuk visualisasi data) | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| Enam | 1.16.0 | smmap | 5.0.0 | Sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | alat penyaring sup | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | starlette | 0.46.2 |
| statsmodels (paket Python untuk pemodelan statistik) | 0.14.4 | strictyaml | 1.7.3 | kegigihan | 9.0.0 |
| selesai | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | Tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard (penjaga tipe) | 4.3.0 | type-python-dateutil | 2.9.0.20241206 |
| ekstensi pengetikan (typing_extensions) | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| pembaruan otomatis tanpa pengawasan | 0.1 | templat URI | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | warna web | 24.11.1 | pengkodean web | 0.5.1 |
| websocket-klien | 1.8.0 | apa itu patch | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | terbungkus | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Perpustakaan R yang terinstal
Pustaka R diinstal dari cuplikan CRAN Pengelola Paket Posit pada 20-03-2025.
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| anak panah | 19.0.1 | askpass | 1.2.1 | pastikanbahwa | 0.2.1 |
| pemindahan fitur ke versi lama (backports) | 1.5.0 | dasar | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | sedikit | 4.6.0 | bit-64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | sepatu bot | 1.3-30 |
| menyeduh | 1.0-10 | Brio | 1.1.5 | sapu | 1.0.7 |
| bslib | 0.9.0 | cashmere | 1.1.0 | layanan panggilan | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | kronogram | 2.3-62 |
| kelas | 7.3-22 | CLI | 3.6.5 | pemangkas | 0.8.0 |
| jam dinding | 0.7.2 | kluster | 2.1.6 | codetools | 0.2-20 |
| ruang warna | 2.1-1 | commonmark | 1.9.5 | pengkompilasi | 4.4.2 |
| config | 0.3.2 | Bimbang | 1.2.0 | cpp11 | 0.5.2 |
| kriyon | 1.5.3 | kredensial | 2.0.2 | melengkung | 6.4.0 |
| data.table (sebuah paket untuk pengolahan data table) | 1.17.0 | kumpulan data | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | deskripsi | 1.4.3 | devtools | 2.4.5 |
| bagan | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.37 |
| pencahayaan turun | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | elipsis | 0.3.2 | menilai | 1.0.3 |
| penggemar | 1.0.6 | warna-warna | 2.1.2 | pemetaan cepat | 1.2.0 |
| fontawesome | 0.5.3 | untuk kucing | 1.0.0 | foreach (pengulangan untuk setiap elemen) | 1.5.2 |
| asing | 0.8-86 | bengkel pandai besi | 0.2.0 | fs | 1.6.5 |
| masa depan | 1.34.0 | menerapkan di masa depan | 1.11.3 | kumur | 1.5.2 |
| obat generik | 0.1.4 | Gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | variabel global | 0.18.0 | lem | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| Grafik | 4.4.2 | grDevices | 4.4.2 | kisi | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtabel | 0.3.6 | topi keras | 1.4.1 | tempat aman | 2.5.4 |
| lebih tinggi | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Pengiterasi | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | Pelabelan | 0.4.3 |
| nanti | 1.4.1 | rangka | 0.22-5 | lahar | 1.8.1 |
| siklus hidup | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | Massa | 7.3-60.0.1 |
| Matrix | 1.6-5 | memosankan | 2.0.1 | Metode | 4.4.2 |
| mgcv | 1.9-1 | pantomim | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | Agustus 2016 - Januari 2017 | openssl | 2.3.3 | paralel | 4.4.2 |
| secara paralel | 1.42.0 | pilar | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pujian | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | ProsesX | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | Kemajuan | 1.2.3 |
| progresr | 0.15.1 | janji | 1.3.2 | proto | 1.0.0 |
| proksi | 0,4-27 | P.S. | 1.9.0 | menggeram lembut | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest (algoritma pembelajaran mesin) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | dapat direaksi | 0.4.4 |
| reactR | 0.6.1 | alat baca | 2.1.5 | readxl (membaca file Excel) | 1.4.5 |
| recipes | 1.2.0 | pertandingan ulang | 2.0.0 | pertandingan ulang 2 | 2.1.2 |
| pengontrol jarak jauh | 2.5.0 | contoh replikasi | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| timbangan / sisik | 1.3.0 | selektor | 0,4-2 | informasi sesi | 1.2.3 |
| bentuk | 1.4.6.1 | mengkilap | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spasial | 7.3-17 | garis lengkung | 4.4.2 | sqldf | 0,4-11 |
| SQUAREM | 2021.1 | statistik | 4.4.2 | statistik4 | 4.4.2 |
| string | 1.8.7 | stringr | 1.5.1 | bertahan hidup | 3.5-8 |
| gaya berani | 5.17.14.1 | Sistem | 3.4.3 | systemfonts | 1.2.1 |
| bahasa pemrograman Tcl/Tk | 4.4.2 | ujiitu | 3.2.3 | pemformatan teks | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | perubahan jam | 0.3.0 | TanggalWaktu | 4041.110 |
| tinytex | 0.56 | perangkat | 4.4.2 | tzdb | 0.5.0 |
| urlchecker | 1.0.1 | gunakan ini | 3.1.0 | utf8 | 1.2.6 |
| Utilitas | 4.4.2 | UUID (Pengidentifikasi Unik Universal) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.5 |
| Waldo | 0.6.1 | kumis | 0.4.1 | dengan | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Pustaka Java dan Scala yang diinstal (versi kluster Scala 2.13)
| ID Kelompok | Identifikasi Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klien Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | AWS Java SDK untuk CloudHSM | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfigurasi SDK Java untuk AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-impor-ekspor | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Pembelajaran Mesin | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks (SDK Java untuk OpsWorks) | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) | 1.12.638 |
| com.amazonaws | SDK Java untuk Storage Gateway AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | AWS Java SDK Dukungan | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | aliran | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | bayangan-kriogenik | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.5.1 |
| com.fasterxml.jackson.core | Jackson Annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | kafein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | sistem_asli-java | 1.1 |
| com.github.fommil.netlib | sistem_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-penduduk asli |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | Annotasi yang rentan terhadap kesalahan | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | kegagalan akses | 1.0.2 |
| com.google.guava | jambu biji | 33.4.0-jre |
| com.google.guava | masa depan yang dapat didengarkan | 9999.0-kosong-untuk-menghindari-konflik-dengan-guava |
| com.google.j2objc | j2objc-anotasi | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | pembuat profil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (algoritma kompresi) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| koleksi umum | koleksi umum | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| unggah berkas pada commons | unggah berkas pada commons | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (perpustakaan Java untuk fungsi pencatatan) | commons-logging (perpustakaan Java untuk fungsi pencatatan) | 1.1.3 |
| kolam umum | kolam umum | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Tidak peduli | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | metrik dan anotasi | 4.2.30 |
| io.dropwizard.metrics | inti metrik | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | pengukuran-pemeriksaan kesehatan | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrik-jmx | 4.2.30 |
| io.dropwizard.metrics | metrik-json | 4.2.30 |
| io.dropwizard.metrics | metrik-jvm | 4.2.30 |
| io.dropwizard.metrics | metrik-servlet | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | Netty Buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-kodek-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | Kelas netty-tcnative | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll (kelas transportasi netty - epoll) | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_umum | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway (gateway pendorong sederhana) | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_pelacakan_otel_agen | 0.16.1-databricks |
| io.prometheus.jmx | pengumpul | 0.18.0 |
| jakarta.anotasi | jakarta.anotasi-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | Transaction-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | mentimun acar | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| jaring.bunga salju | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_gabungan_semua | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | format tanda panah | 18.2.0 |
| org.apache.arrow | inti-memori-panah | 18.2.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.2.0 |
| org.apache.arrow | arrow-memori-netty-penyangga-tambalan | 18.2.0 |
| org.apache.arrow | arrow-vector | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-koleksi4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | Commons-Math3 | 3.6.1 |
| org.apache.commons | commons-text (teks umum) | 1.13.0 |
| org.apache.curator | kurator dan klien | 5.7.1 |
| org.apache.curator | kerangka kerja kurator | 5.7.1 |
| org.apache.curator | kurasi resep | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | pertandingan derbi | 10.14.2.0 |
| org.apache.hadoop | lingkungan kerja klien Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline (antarmuka perintah untuk Apache Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | API penyimpanan hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) | 2.3.10 |
| org.apache.hive.shims | Pengatur Jadwal Hive Shims | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | tanaman anggur | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json (pola tata letak JSON di log4j) | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotasi penonton | 0.13.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.9.3 |
| org.apache.zookeeper | penjaga kebun binatang-jute | 3.9.3 |
| org.checkerframework | pemeriksa kualitas | 3.43.0 |
| org.codehaus.janino | Pengompilasi Umum | 3.0.16 |
| org.codehaus.janino | Januari | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | lanjutan dermaga | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http (protokol HTTP untuk server Jetty) | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | keamanan jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Aplikasi web Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klien | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-pemindai lokasi | 2.6.1 |
| org.glassfish.hk2 | hk2-utilitas | 2.6.1 |
| org.glassfish.hk2 | osgi-penanda-sumber-daya | 1.0.3 |
| org.glassfish.hk2.external | aopalliance (dikemas ulang) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-inti | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey biasa | 2.41 |
| org.glassfish.jersey.core | Jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | Hibernate Validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotasi | 17.0.0 |
| org.jline | Jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | antarmuka pengujian | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | kompatibel dengan ScalaTest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Petunjuk / Saran
Untuk melihat catatan rilis untuk versi Databricks Runtime yang telah mencapai akhir masa dukungan (EoS), lihat Catatan rilis Databricks Runtime yang telah mencapai akhir masa dukungan. Versi EoS Databricks Runtime telah dihentikan dan mungkin tidak diperbarui.