Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Nota
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan dan akhir masa pakai. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 15.2, didukung oleh Apache Spark 3.5.0.
Databricks merilis versi ini pada Bulan Mei 2024.
Perubahan perilaku
Alat Vakum membersihkan file metadata COPY INTO
Menjalankan VACUUM pada tabel yang ditulis dengan COPY INTO sekarang membersihkan metadata yang tidak direferensikan yang terkait dengan pelacakan file yang diserap. Tidak ada dampak pada semantik operasional .COPY INTO
Federasi Lakehouse umumnya tersedia (GA)
Di Databricks Runtime 15.2 dan yang lebih baru, konektor Lakehouse Federation di seluruh jenis database berikut umumnya tersedia (GA):
- MySQL
- PostgreSQL
- Amazon Redshift
- Snowflake
- Microsoft SQL Server
- Azure Synapse (Data Warehouse SQL)
- Databricks
Rilis ini juga memperkenalkan peningkatan berikut:
- Dukungan untuk autentikasi akses menyeluruh (SSO) di konektor Snowflake dan Microsoft SQL Server.
- Dukungan Azure Private Link untuk konektor SQL Server dari lingkungan komputasi tanpa server. Lihat Langkah 3: Membuat aturan titik akhir privat.
- Dukungan untuk pushdown tambahan (string, matematika, dan fungsi lainnya).
- Tingkat keberhasilan pushdown yang meningkat di beragam bentuk kueri.
- Kemampuan debugging pushdown tambahan:
- Output
EXPLAIN FORMATTEDmenampilkan teks kueri yang didorong ke bawah. - Antarmuka pengguna profil kueri menampilkan teks kueri yang didorong ke bawah, pengidentifikasi simpul federasi, dan waktu eksekusi kueri JDBC (dalam mode verbose). Lihat kueri federasi yang dihasilkan oleh sistem.
- Output
BY POSITION untuk pemetaan kolom menggunakan COPY INTO dengan file CSV tanpa header
Di Databricks Runtime 15.2 dan yang lebih baru, Anda dapat menggunakan kata kunci BY POSITION (atau sintaks alternatif ( col_name [ , <col_name> ... ] )) dengan COPY INTO untuk file CSV tanpa header untuk menyederhanakan kolom sumber untuk menargetkan pemetaan kolom tabel. Lihat Parameter.
Mengurangi konsumsi memori saat tugas Spark gagal dengan kesalahan Resubmitted
Di Databricks Runtime 15.2 dan yang lebih baru, nilai pengembalian metode Spark TaskInfo.accumulables() menjadi kosong ketika tugas mengalami kegagalan karena kesalahan Resubmitted. Sebelumnya, metode tersebut mengembalikan nilai dari upaya tugas yang berhasil sebelumnya. Perubahan perilaku ini memengaruhi konsumen berikut:
- Tugas Spark yang menggunakan kelas
EventLoggingListener. - Pendengar Spark Kustom.
Untuk mengembalikan perilaku sebelumnya, atur spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled ke false.
Menampilkan versi rencana eksekusi kueri adaptif dinonaktifkan
Untuk mengurangi konsumsi memori, versi paket eksekusi kueri adaptif (AQE) sekarang dinonaktifkan secara default di antarmuka pengguna Spark. Untuk mengaktifkan tampilan versi paket AQE di antarmuka pengguna Spark, atur spark.databricks.sql.aqe.showPlanChangesInUI.enabled ke true.
Batas kueri yang dipertahankan diturunkan untuk mengurangi penggunaan memori Spark UI
Dalam Databricks Runtime 15.2 dan yang lebih baru, untuk mengurangi memori yang digunakan oleh UI Spark dalam komputasi Azure Databricks, batas jumlah kueri yang terlihat di UI diturunkan dari 1000 menjadi 100. Untuk mengubah batas, tetapkan nilai baru menggunakan konfigurasi spark.sql.ui.retainedExecutions Spark.
DESCRIBE HISTORY sekarang menunjukkan kolom pengklusteran untuk tabel yang menggunakan pengklusteran cair
Saat Anda menjalankan kueri DESCRIBE HISTORY, kolom operationParameters memperlihatkan bidang clusterBy secara default untuk operasi CREATE OR REPLACE dan OPTIMIZE. Untuk tabel Delta yang menggunakan pengklusteran cair, clusterBy bidang diisi dengan kolom pengklusteran tabel. Jika tabel tidak menggunakan pengklusteran cair, bidang kosong.
Sintaks widget notebook tidak digunakan lagi
Dimulai dengan Databricks Runtime 15.2, ${param} sintaks untuk mengakses nilai widget notebook di sel SQL tidak digunakan lagi. Gunakan sintaks penanda parameter (:param) sebagai gantinya. Sintaks penanda parameter memberikan perlindungan injeksi SQL yang lebih baik dan peningkatan performa kueri.
Untuk panduan dan contoh migrasi, lihat Widget buku catatan warisan. Untuk informasi tentang pendekatan yang direkomendasikan saat ini, lihat Widget Databricks.
Fitur dan peningkatan baru
Dukungan untuk kunci primer dan asing adalah GA
Dukungan untuk kunci primer dan asing di Databricks Runtime umumnya tersedia. Rilis GA mencakup perubahan berikut pada hak istimewa yang diperlukan untuk penggunaan kunci primer dan kunci asing:
- Untuk menentukan kunci asing, Anda harus memiliki hak istimewa
SELECTpada tabel dengan kunci utama yang menjadi referensi bagi kunci asing. Anda tidak perlu memiliki tabel dengan kunci utama, yang sebelumnya wajib dimiliki. - Menghilangkan kunci primer menggunakan klausa
CASCADEtidak memerlukan hak istimewa pada tabel yang menentukan kunci asing yang mereferensikan kunci utama. Sebelumnya, Anda perlu memiliki tabel referensi. - Menghilangkan tabel yang menyertakan batasan sekarang memerlukan hak istimewa yang sama dengan menghilangkan tabel yang tidak menyertakan batasan.
Untuk mempelajari cara menggunakan kunci primer dan asing dengan tabel atau tampilan, lihat CONSTRAINT klausa, ADD CONSTRAINT klausa, dan DROP CONSTRAINT klausa.
Pengklusteran cairan adalah GA
Dukungan untuk pengklusteran cairan sekarang tersedia secara umum menggunakan Databricks Runtime 15.2 ke atas. Lihat Menggunakan pengklusteran cair untuk tabel.
Pelebaran Tipe ada di Pratinjau Umum
Anda sekarang dapat mengaktifkan pelebaran tipe pada tabel yang didukung oleh Delta Lake. Tabel dengan perluasan tipe yang diaktifkan memungkinkan perubahan jenis kolom ke jenis data yang lebih luas tanpa harus menulis ulang file data yang ada. Lihat Pelebaran tipe.
Klausa evolusi skema ditambahkan ke sintaks penggabungan SQL
Anda sekarang dapat menambahkan klausa WITH SCHEMA EVOLUTION ke pernyataan penggabungan SQL untuk mengaktifkan evolusi skema untuk operasi. Lihat Sintaks evolusi skema untuk penggabungan.
Sumber data kustom PySpark tersedia di Pratinjau Umum
PySpark DataSource dapat dibuat menggunakan API DataSource Python (PySpark), yang memungkinkan pembacaan dari sumber data kustom dan menulis ke sink data kustom di Apache Spark menggunakan Python. Lihat sumber data kustom PySpark
applyInPandas dan mapInPandas sekarang tersedia pada Unity Catalog dengan mode akses bersama
Sebagai bagian dari rilis pemeliharaan Databricks Runtime 14.3 LTS, applyInPandas dan mapInPandas jenis UDF sekarang didukung pada komputasi mode akses bersama yang menjalankan Databricks Runtime 14.3 ke atas.
Gunakan dbutils.widgets.getAll() untuk mendapatkan semua widget di notebook
Gunakan dbutils.widgets.getAll() untuk mendapatkan semua nilai widget dalam buku catatan. Ini sangat membantu saat meneruskan beberapa nilai widget ke kueri Spark SQL.
Dukungan persediaan peralatan vakum
Anda sekarang dapat menentukan inventaris file yang perlu dipertimbangkan saat menjalankan perintah VACUUM pada tabel Delta. Lihat dokumen OSS Delta.
Dukungan untuk fungsi kompresi Zstandard
Anda sekarang dapat menggunakan fungsi zst_compress, zstd_decompress, dan try_zstd_decompress untuk mengompresi dan mendekompresi BINARY data.
Perbaikan bug
Paket kueri di UI SQL sekarang ditampilkan dengan benar PhotonWriteStage
Saat ditampilkan di UI SQL, perintah write dalam rencana kueri salah menunjukkan PhotonWriteStage sebagai operator. Dengan rilis ini, UI diperbarui untuk menampilkan PhotonWriteStage sebagai tahap. Ini hanya perubahan UI dan tidak memengaruhi cara kueri dijalankan.
Ray diperbarui untuk memperbaiki masalah pada saat memulai kluster Ray
Rilis ini mencakup versi Ray yang telah diperbaiki untuk memperbaiki perubahan signifikan yang mencegah kluster Ray memulai dengan Databricks Runtime untuk Pembelajaran Mesin. Perubahan ini memastikan bahwa fungsionalitas Ray identik dengan versi Databricks Runtime sebelum 15.2.
Kelas kesalahan yang telah diperbaiki untuk fungsi DataFrame.sort() dan DataFrame.sortWithinPartitions()
Rilis ini mencakup pembaruan ke fungsi DataFrame.sort() dan DataFrame.sortWithinPartitions() PySpark untuk memastikan kelas kesalahan ZERO_INDEX dilempar ketika 0 diberikan sebagai argumen indeks. Sebelumnya, kelas kesalahan INDEX_NOT_POSITIVE telah dilemparkan.
ipywidgets diturunkan dari 8.0.4 ke 7.7.2
Untuk memperbaiki kesalahan yang diperkenalkan oleh peningkatan ipywidgets ke 8.0.4 di Databricks Runtime 15.0, ipywidgets diturunkan menjadi 7.7.2 di Databricks Runtime 15.2. Ini adalah versi yang sama yang disertakan dalam versi Databricks Runtime sebelumnya.
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- GitPython dari 3.1.42 ke 3.1.43
- google-api-core dari 2.17.1 hingga 2.18.0
- google-auth dari 2.28.1 ke 2.29.0
- google-cloud-storage dari 2.15.0 ke 2.16.0
- googleapis-common-protos dari 1.62.0 hingga 1.63.0
- ipywidgets dari 8.0.4 ke 7.7.2
- mlflow-skinny dari 2.11.1 hingga 2.11.3
- s3transfer dari 0.10.0 hingga 0.10.1
- sqlparse dari 0.4.4 hingga 0.5.0
- typing_extensions dari 4.7.1 ke 4.10.0
- Pustaka R yang ditingkatkan:
- Pustaka Java yang ditingkatkan:
- com.amazonaws.aws-java-sdk-autoscaling dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-config dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-core dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-directconnect dari 1.12.390 ke 1.12.610
- com.amazonaws.aws-java-sdk-directory dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-ec2 dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-ecs dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-efs dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-elasticache dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-emr dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-glacier dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-glue dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-iam dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-importexport dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-kinesis dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-kms dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-lambda dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-logs dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-opsworks dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-rds dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-redshift dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-route53 dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-s3 dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-ses dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-simpledb dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-sns dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-sqs dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-ssm dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-sts dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-support dari 1.12.390 hingga 1.12.610
- com.amazonaws.aws-java-sdk-workspaces dari 1.12.390 hingga 1.12.610
- com.amazonaws.jmespath-java dari 1.12.390 hingga 1.12.610
Apache Spark
Databricks Runtime 15.2 mencakup Apache Spark 3.5.0. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 15.1 (EoS), serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:
- [SPARK-47941] [SC-163568] [SS] [Koneksi] Menyampaikan kesalahan inisialisasi pekerja ForeachBatch kepada pengguna di PySpark
- [SPARK-47412] [SC-163455][sql] Tambahkan Dukungan Pengurutan untuk LPad/RPad.
- [SPARK-47907] [SC-163408][sql] Letakkan bang di bawah konfigurasi
-
[SPARK-46820] [SC-157093][python] Perbaiki regresi pesan kesalahan dengan memulihkan
new_msg - [SPARK-47602] [SPARK-47577][spark-47598][SPARK-47577]Core/MLLib/Resource managers: migrasi pengelogan terstruktur
- [SPARK-47890] [SC-163324][connect][PYTHON] Tambahkan fungsi varian ke Scala dan Python.
-
[SPARK-47894] [SC-163086][core][WEBUI] Tambahkan
Environmenthalaman ke UI Master - [SPARK-47805] [SC-163459][ss] Menerapkan TTL untuk MapState
- [SPARK-47900] [SC-163326] Perbaiki pengecekan untuk kolasi implisit (UTF8_BINARY)
- [SPARK-47902] [SC-163316][sql]Membuat ekspresi Compute Current Time* dapat dilipat
- [SPARK-47845] [SC-163315][sql][PYTHON][connect] Mendukung jenis kolom dalam fungsi split untuk scala dan python
- [SPARK-47754] [SC-162144][sql] Postgres: Dukungan membaca array multidmensional
- [SPARK-47416] [SC-163001][sql] Tambahkan fungsi baru ke CollationBenchmark #90339
- [SPARK-47839] [SC-163075][sql] Memperbaiki bug agregat di RewriteWithExpression
- [SPARK-47821] [SC-162967][sql] Terapkan ekspresi is_variant_null
-
[SPARK-47883] [SC-163184][sql] Buat
CollectTailExec.doExecutemalas dengan RowQueue - [SPARK-47390] [SC-163306][sql] PostgresDialect membedakan TIMESTAMP dari TIMESTAMP_TZ
-
[SPARK-47924] [SC-163282][core] Tambahkan log DEBUG ke
DiskStore.moveFileToBlock - [SPARK-47897] [SC-163183][sql][3.5] Perbaiki regresi performa ExpressionSet di scala 2.12
- [SPARK-47565] [SC-161786][python] Ketahanan crash kumpulan pekerja PySpark
- [SPARK-47885] [SC-162989][python][CONNECT] Buat pyspark.resource kompatibel dengan pyspark-connect
-
[SPARK-47887] [SC-163122][connect] Hapus impor
spark/connect/common.protoyang tidak digunakan darispark/connect/relations.proto - [SPARK-47751] [SC-161991][python][CONNECT] Buat pyspark.worker_utils kompatibel dengan pyspark-connect
- [SPARK-47691] [SC-161760][sql] Postgres: Dukungan array multi dimensi di sisi tulis
- [SPARK-47617] [SC-162513][sql] Tambahkan infrastruktur pengujian TPC-DS untuk kolase
- [SPARK-47356] [SC-162858][sql] Tambahkan dukungan untuk ConcatWs & Elt (semua kolase)
-
[SPARK-47543] [SC-161234][connect][PYTHON] Menyimpulkan
dictsebagaiMapTypedari Pandas DataFrame untuk memungkinkan pembuatan DataFrame [SPARK-47863] [SC-162974][sql] Memperbaiki implementasi startsWith & endsWith yang menyadari pengurutan untuk ICU- [SPARK-47867] [SC-162966][sql] Mendukung varian dalam pemindaian JSON.
- [SPARK-47366] [SC-162475][sql][PYTHON] Tambahkan VariantVal untuk PySpark
- [SPARK-47803] [SC-162726][sql] Dukungan untuk varian.
- [SPARK-47769] [SC-162841][sql] Tambahkan ekspresi schema_of_variant_agg.
- [SPARK-47420] [SC-162842][sql] Memperbaiki output pengujian
- [SPARK-47430] [SC-161178][sql] Dukungan GROUP BY untuk MapType
- [SPARK-47357] [SC-162751][sql] Tambahkan dukungan untuk Upper, Lower, InitCap (semua kolase)
- [SPARK-47788] [SC-162729][ss] Pastikan partisi hash yang sama untuk operasi stateful streaming
- [SPARK-47776] [SC-162291][ss] Larang kolase ketidaksamaan biner digunakan dalam skema kunci operator stateful
- [SPARK-47673] [SC-162824][ss] Menerapkan TTL untuk ListState
- [SPARK-47818] [SC-162845][connect] Memperkenalkan cache rencana di SparkConnectPlanner untuk meningkatkan performa permintaan analisis
- [SPARK-47694] [SC-162783][connect] Buat ukuran pesan maks dapat dikonfigurasi di sisi klien
- [SPARK-47274] Batalkan “[SC-162479][python][SQL] Sediakan lebih banyak kegunaan yang bermanfaat...
- [SPARK-47616] [SC-161193][sql] Tambahkan Dokumen Pengguna untuk Pemetaan Jenis Data Spark SQL dari MySQL
- [SPARK-47862] [SC-162837][python][CONNECT]Perbaiki pembuatan file proto
- [SPARK-47849] [SC-162724][python][CONNECT] Ubah skrip rilis untuk merilis pyspark-connect
- [SPARK-47410] [SC-162518][sql] Refaktor UTF8String dan CollationFactory
- [SPARK-47807] [SC-162505][python][ML] Buat pyspark.ml kompatibel dengan pyspark-connect
- [SPARK-47707] [SC-161768][sql] Penanganan khusus jenis JSON untuk Konektor MySQL/J 5.x
- [SPARK-47765] Kembalikan "[SC-162636][sql] Tambahkan SET KOLASE ke pars...
- [SPARK-47081] [SC-162151][connect][FOLLOW] Meningkatkan kegunaan Progress Handler
- [SPARK-47289] [SC-161877][sql] Izinkan ekstensi untuk mencatat informasi yang diperluas dalam rencana penjelasan
- [SPARK-47274] [SC-162479][python][SQL] Menyediakan konteks yang lebih berguna untuk kesalahan PySpark DataFrame API
- [SPARK-47765] [SC-162636][sql] Tambahkan SET KOLASE ke aturan pengurai
-
[SPARK-47828] [SC-162722][connect][PYTHON]
DataFrameWriterV2.overwritegagal dengan rencana yang tidak valid - [SPARK-47812] [SC-162696][connect] Mendukung Serialisasi SparkSession untuk pekerja ForEachBatch
- [SPARK-47253] [SC-162698][core] Izinkan LiveEventBus berhenti tanpa harus sepenuhnya mengosongkan antrean peristiwa
- [SPARK-47827] [SC-162625][python] Peringatan yang hilang untuk fitur yang tidak digunakan lagi
- [SPARK-47733] [SC-162628][ss] Tambahkan metrik kustom untuk operator transformWithState sebagai bagian dari kemajuan kueri
- [SPARK-47784] [SC-162623][ss] Gabungkan TTLMode dan TimeoutMode ke dalam satu TimeMode.
- [SPARK-47775] [SC-162319][sql] Mendukung jenis skalar yang tersisa dalam spesifikasi varian.
- [SPARK-47736] [SC-162503][sql] Tambahkan dukungan untuk AbstractArrayType
- [SPARK-47081] [SC-161758][connect] Mendukung Kemajuan Eksekusi Kueri
- [SPARK-47682] [SC-162138][sql] Mendukung konversi dari varian.
- [SPARK-47802] [SC-162478][sql] Kembali () dari makna struct() kembali ke arti *
- [SPARK-47680] [SC-162318][sql] Tambahkan ekspresi variant_explode.
-
[SPARK-47809] [SC-162511][sql]
checkExceptionInExpressionharus memeriksa kesalahan untuk setiap mode codegen -
[SPARK-41811] [SC-162470][python][CONNECT] Mengimplementasikan dengan
SQLStringFormatterWithRelations - [SPARK-47693] [SC-162326][sql] Tambahkan pengoptimalan untuk perbandingan huruf kecil UTF8String yang digunakan dalam kolase UTF8_BINARY_LCASE
- [SPARK-47541] [SC-162006][sql] String yang diurutkan dalam jenis kompleks yang mendukung operasi membalik, array_join, concat, peta
- [SPARK-46812] [SC-161535][connect][PYTHON] Membuat mapInPandas / mapInArrow mendukung ProfilSumberDaya
- [SPARK-47727] [SC-161982][python] Membuat SparkConf ke tingkat root untuk SparkSession dan SparkContext
- [SPARK-47406] [SC-159376][sql] Menangani TIMESTAMP dan DATETIME di MYSQLDialect
- [SPARK-47081] Kembalikan “[SC-161758][connect] Dukung Eksekusi Query..."
- [SPARK-47681] [SC-162043][sql] Tambahkan ekspresi schema_of_variant.
- [SPARK-47783] [SC-162222] Tambahkan beberapa SQLSTATEs yang hilang, bersihkan YY000 untuk digunakan...
- [SPARK-47634] [SC-161558][sql] Tambahkan dukungan warisan untuk menonaktifkan normalisasi kunci peta
- [SPARK-47746] [SC-162022] Menerapkan pengodean rentang berbasis ordinal di RocksDBStateEncoder
- [SPARK-47285] [SC-158340][sql] AdaptiveSparkPlanExec harus selalu menggunakan context.session
- [SPARK-47643] [SC-161534][ss][PYTHON] Tambahkan pengujian pyspark untuk sumber streaming python
- [SPARK-47582] [SC-161943][sql] Migrasikan Catalyst logInfo dengan variabel ke kerangka kerja pengelogan terstruktur
- [SPARK-47558] [SC-162007][ss] Dukungan TTL Status untuk ValueState
- [SPARK-47358] [SC-160912][sql][COLLATION] Meningkatkan dukungan ekspresi pengulangan untuk mengembalikan jenis data yang benar
- [SPARK-47504] [SC-162044][sql] Menyelesaikan simpleStrings AbstractDataType untuk StringTypeCollated
- [SPARK-47719] Kembalikan "[SC-161909][sql] Ubah spark.sql.legacy.t...
- [SPARK-47657] [SC-162010][sql] Menerapkan dukungan push down filter kolase per sumber file
- [SPARK-47081] [SC-161758][connect] Mendukung Kemajuan Eksekusi Kueri
- [SPARK-47744] [SC-161999] Menambahkan dukungan untuk byte bernilai negatif dalam encoder rentang
- [SPARK-47713] [SC-162009][sql][CONNECT] Perbaiki kegagalan gabungan mandiri
- [SPARK-47310] [SC-161930][ss] Tambahkan tolok ukur mikro untuk operasi penggabungan untuk beberapa nilai dalam bagian nilai penyimpanan status
- [SPARK-47700] [SC-161774][sql] Perbaiki pemformatan pesan kesalahan dengan treeNode
- [SPARK-47752] [SC-161993][ps][CONNECT] Buat pyspark.pandas kompatibel dengan pyspark-connect
- [SPARK-47575] [SC-161402][spark-47576][SPARK-47654] Implementasikan logWarning/logInfo API dalam kerangka kerja pengelogan terstruktur
- [SPARK-47107] [SC-161201][ss][PYTHON] Terapkan pembaca partisi untuk sumber data streaming python
- [SPARK-47553] [SC-161772][ss] Tambahkan dukungan Java untuk API operator transformWithState
- [SPARK-47719] [SC-161909][sql] Ubah spark.sql.legacy.timeParserPolicy default ke CORRECTED
- [SPARK-47655] [SC-161761][ss] Integrasikan timer dengan penanganan Status Awal untuk state-v2
- [SPARK-47665] [SC-161550][sql] Gunakan SMALLINT untuk Menulis ShortType ke MYSQL
- [SPARK-47210] [SC-161777][sql] Penambahan transmisi implisit tanpa dukungan yang tidak ditentukan
- [SPARK-47653] [SC-161767][ss] Tambahkan dukungan untuk jenis numerik negatif dan encoder kunci pemindaian rentang
- [SPARK-46743] [SC-160777][sql] Hitung bug setelah pelipatan konstan
- [SPARK-47525] [SC-154568][sql] Mendukung gabungan korelasi subkueri pada atribut peta
- [SPARK-46366] [SC-151277][sql] Gunakan ekspresi WITH di BETWEEN untuk menghindari ekspresi duplikat
- [SPARK-47563] [SC-161183][sql] Tambahkan normalisasi peta pada pembuatan
- [SPARK-42040] [SC-161171][sql] SPJ: Memperkenalkan API baru untuk partisi input V2 untuk melaporkan statistik partisi
-
[SPARK-47679] [SC-161549][sql] Gunakan
HiveConf.getConfVarsatau nama conf Apache Hive secara langsung -
[SPARK-47685] [SC-161566][sql] Pulihkan dukungan untuk tipe
StreamdalamDataset#groupBy - [SPARK-47646] [SC-161352][sql] Buat try_to_number mengembalikan NULL untuk input cacat
- [SPARK-47366] [SC-161324][python] Tambahkan pyspark dan dataframe parse_json alias
-
[SPARK-47491] [SC-161176][core] Tambahkan
slf4j-apijar ke jalur kelas terlebih dahulu sebelum yang lain dari direktorijars - [SPARK-47270] [SC-158741][sql] Dataset.isEmpty memproyeksikan CommandResults secara lokal
-
[SPARK-47364] [SC-158927][core] Peringatkan
PluginEndpointketika plugin membalas pesan satu arah - [SPARK-47280] [SC-158350][sql] Hapus batasan zona waktu untuk TANDA WAKTU ORACLE DENGAN TIMEZONE
- [SPARK-47551] [SC-161542][sql] Tambahkan ekspresi variant_get.
-
[SPARK-47559] [SC-161255][sql] Dukungan Codegen untuk varian
parse_json - [SPARK-47572] [SC-161351][sql] Enforce Window partitionSpec dapat diurutkan.
- [SPARK-47546] [SC-161241][sql] Memperbaiki pengecekan saat membaca Variant dari Parquet
-
[SPARK-47543] [SC-161234][connect][PYTHON] Menyimpulkan
dictsebagaiMapTypedari Pandas DataFrame untuk memungkinkan pembuatan DataFrame - [SPARK-47485] [SC-161194][sql][PYTHON][connect] Buat kolom dengan kolase di API dataframe
-
[SPARK-47641] [SC-161376][sql] Meningkatkan performa untuk
UnaryMinusdanAbs -
[SPARK-47631] [SC-161325][sql] Hapus metode yang tidak digunakan
SQLConf.parquetOutputCommitterClass -
[SPARK-47674] [SC-161504][core] Aktifkan
spark.metrics.appStatusSource.enabledsecara default - [SPARK-47273] [SC-161162][ss][PYTHON] menerapkan antarmuka penulis aliran data Python.
- [SPARK-47637] [SC-161408][sql] Gunakan errorCapturingIdentifier di lebih banyak tempat
- [SPARK-47497] Balikkan “Balikkan “[SC-160724][sql] Buat to_csv mendukung output array/struct/map/binary sebagai string rapi””
- [SPARK-47492] [SC-161316][sql] Memperluas aturan spasi di lexer.
- [SPARK-47664] [SC-161475][python][CONNECT] Validasi nama kolom dengan skema cache
- [SPARK-47638] [SC-161339][ps][CONNECT] Lewati validasi nama kolom di PS
- [SPARK-47363] [SC-161247][ss] Status Awal tanpa implementasi pembaca status untuk STATE API v2.
- [SPARK-47447] [SC-160448][sql] Izinkan membaca Parquet TimestampLTZ sebagai TimestampNTZ
-
[SPARK-47497] Batalkan “[SC-160724][sql] Buat
to_csvmendukung outputarray/struct/map/binarysebagai string yang rapi” -
[SPARK-47434] [SC-160122][webui] Memperbaiki tautan
statisticsdiStreamingQueryPage - [SPARK-46761] [SC-159045][sql] String yang dikutip dalam jalur JSON harus mendukung ? Karakter
-
[SPARK-46915] [SC-155729][sql] Menyederhanakan dan menyelaraskan
UnaryMinusAbskelas kesalahan - [SPARK-47431] [SC-160919][sql] Tambahkan Kolase default tingkat sesi
- [SPARK-47620] [SC-161242][python][CONNECT] Tambahkan fungsi pembantu untuk mengurutkan kolom
- [SPARK-47570] [SC-161165][ss] Mengintegrasikan perubahan encoder pemindaian rentang dengan implementasi timer
-
[SPARK-47497] [SC-160724][sql] Menjadikan
to_csvmemberikan dukungan untuk outputarray/struct/map/binarysebagai string yang indah -
[SPARK-47562] [SC-161166][connect] Memisahkan penanganan literal dari
plan.py - [SPARK-47509] [SC-160902][sql] Blokir ekspresi subkueri dalam fungsi lambda dan urutan yang lebih tinggi
-
[SPARK-47539] [SC-160750][sql] Jadikan nilai pengembalian metode
castToStringmenjadiAny => UTF8String - [SPARK-47372] [SC-160905][ss] Tambahkan dukungan untuk encoder status kunci berbasis pemindaian rentang untuk digunakan dengan penyedia penyimpanan status
- [SPARK-47517] [SC-160642][inti][SQL] Lebih memilih Utils.bytesToString untuk tampilan ukuran
-
[SPARK-47243] [SC-158059][ss] Perbaiki nama paket
StateMetadataSource.scala - [SPARK-47367] [SC-160913][python][CONNECT] Dukungan Python sumber data dengan Spark Connect
-
[SPARK-47521] [SC-160666][core] Gunakan
Utils.tryWithResourceselama membaca data acak dari penyimpanan eksternal - [SPARK-47474] [SC-160522][core] Kembalikan SPARK-47461 dan tambahkan beberapa komentar
- [SPARK-47560] [SC-160914][python][CONNECT] Hindari RPC untuk memvalidasi nama kolom dengan skema cache
- [SPARK-47451] [SC-160749][sql] Support to_json(varian).
- [SPARK-47528] [SC-160727][sql] Tambahkan dukungan UserDefinedType ke DataTypeUtils.canWrite
- [SPARK-44708] Kembalikan "[SC-160734][python] Migrasikan test_reset_index assert_eq untuk menggunakan assertDataFrameEqual"
- [SPARK-47506] [SC-160740][sql] Tambahkan dukungan ke semua format sumber file untuk jenis data kolase
- [SPARK-47256] [SC-160784][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_102[4-7]
- [SPARK-47495] [SC-160720][core] Perbaiki jar sumber daya utama yang ditambahkan ke spark.jars dua kali di bawah mode kluster k8s
- [SPARK-47398] [SC-160572][sql] Ekstrak sifat untuk InMemoryTableScanExec untuk memungkinkan perluasan fungsionalitas
- [SPARK-47479] [SC-160623][sql] Optimize tidak dapat menulis data ke relasi dengan log kesalahan beberapa jalur
- [SPARK-47483] [SC-160629][sql] Tambahkan dukungan untuk operasi agregasi dan gabungan pada array string yang disusun
- [SPARK-47458] [SC-160237][core] Perbaiki masalah dengan menghitung tugas serentak maksimum untuk tahap hambatan
-
[SPARK-47534] [SC-160737][sql] Pindah
o.a.s.variantkeo.a.s.types.variant - [SPARK-47396] [SC-159312][sql] Tambahkan pemetaan umum untuk TIME WITHOUT TIME ZONE ke TimestampNTZType
- [SPARK-44708] [SC-160734][python] Migrasikan test_reset_index assert_eq untuk menggunakan assertDataFrameEqual
- [SPARK-47309] [SC-157733][sc-160398][SQL] XML: Menambahkan pengujian inferensi skema untuk tag nilai
-
[SPARK-47007] [SC-160630][sql] Tambahkan
MapSortekspresi -
[SPARK-47523] [SC-160645][sql] Ganti tidak digunakan
JsonParser#getCurrentNamelagi denganJsonParser#currentName - [SPARK-47440] [SC-160635][sql] Memperbaiki masalah mendorong sintaks yang tidak didukung ke MsSqlServer
- [SPARK-47512] [SC-160617][ss] Jenis operasi tag yang digunakan dengan akuisisi/rilis kunci instans penyimpanan status RocksDB
- [SPARK-47346] [SC-159425][python] Membuat mode daemon dapat dikonfigurasi saat membuat pekerja perencana Python
-
[SPARK-47446] [SC-160163][core] Peringatkan
BlockManagersebelumnyaremoveBlockInternal - [SPARK-46526] [SC-156099][sql] Dukungan LIMIT atas subkueri berkorelasi di mana predikat hanya mereferensikan tabel luar
-
[SPARK-47461] [SC-160297][core] Hapus fungsi
totalRunningTasksPerResourceProfileprivat dariExecutorAllocationManager - [SPARK-47422] [SC-160219][sql] Mendukung string yang dikolasi dalam operasi array
-
[SPARK-47500] [SC-160627][python][CONNECT] Penanganan nama kolom faktor keluar dari
plan.py -
[SPARK-47383] [SC-160144][core] Konfigurasi dukungan
spark.shutdown.timeout - [SPARK-47342] [SC-159049]Kembalikan "[SQL] Support TimestampNTZ untuk DB2 TIMESTAMP WITH TIME ZONE"
-
[SPARK-47486] [SC-160491][connect] Hapus metode privat
ArrowDeserializers.getStringyang tidak digunakan - [SPARK-47233] [SC-154486][connect][SS][2/2] Logika Klien & Server untuk pendengar kueri streaming sisi klien
- [SPARK-47487] [SC-160534][sql] Sederhanakan kode di AnsiTypeCoercion
- [SPARK-47443] [SC-160459][sql] Dukungan Agregat Jendela untuk kolase
- [SPARK-47296] [SC-160457][sql][COLLATION] Gagal fungsi yang tidak didukung untuk kolase non-biner
- [SPARK-47380] [SC-160164][connect] Pastikan di pihak server bahwa SparkSession tetap konsisten
- [SPARK-47327] [SC-160069][sql] Memindahkan uji kesesuaian kunci sortir ke CollationFactorySuite
- [SPARK-47494] [SC-160495][doc] Tambahkan dokumen migrasi untuk perubahan perilaku inferensi tanda waktu Parquet sejak Spark 3.3
- [SPARK-47449] [SC-160372][ss] Pemfaktoran ulang dan uji unit daftar/timer terpisah
-
[SPARK-46473] [SC-155663][sql] Gunakan
getPartitionedFilekembali metode - [SPARK-47423] [SC-160068][sql] Collations - Mengatur dukungan operasi untuk string dengan kolase
- [SPARK-47439] [SC-160115][python] Mendokumentasikan API Sumber Data Python di halaman referensi API
-
[SPARK-47457] [SC-160234][sql] Perbaikan
IsolatedClientLoader.supportsHadoopShadedClientuntuk menangani Hadoop 3.4+ - [SPARK-47366] [SC-159348][sql] Implementasi parse_json.
- [SPARK-46331] [SC-152982][sql] Menghapus CodegenFallback dari subset ekspresi DateTime dan ekspresi versi()
- [SPARK-47395] [SC-159404] Menambahkan kolasi dan mengurutkan ke API lain
-
[SPARK-47437] [SC-160117][python][CONNECT] Perbaiki kelas kesalahan untuk
DataFrame.sort* - [SPARK-47174] [SC-154483][connect][SS][1/2] Sisi server SparkConnectListenerBusListener untuk pendengar kueri streaming sisi klien
- [SPARK-47324] [SC-158720][sql] Tambahkan konversi tanda waktu yang hilang untuk jenis berlapis JDBC
- [SPARK-46962] [SC-158834][ss][PYTHON] Tambahkan antarmuka untuk API sumber data streaming python dan terapkan pekerja python untuk menjalankan sumber data streaming python
- [SPARK-45827] [SC-158498][sql] Memindahkan pemeriksaan jenis data ke CreatableRelationProvider
- [SPARK-47342] [SC-158874][sql] Mendukung TimestampNTZ untuk DB2 TIMESTAMP DENGAN TIME ZONE
- [SPARK-47399] [SC-159378][sql] Nonaktifkan kolom yang dihasilkan pada ekspresi dengan kolase
- [SPARK-47146] [SC-158247][core] Kemungkinan kebocoran utas saat melakukan penggabungan sortir
- [SPARK-46913] [SC-159149][ss] Tambahkan dukungan untuk timer berbasis waktu pemrosesan/peristiwa dengan operator transformWithState
-
[SPARK-47375] [SC-159063][sql] Tambahkan panduan untuk pemetaan tanda waktu di
JdbcDialect#getCatalystType - [SPARK-47394] [SC-159282][sql] Mendukung TANDA WAKTU DENGAN ZONA WAKTU untuk H2Dialect
- [SPARK-45827] Kembalikan "[SC-158498][sql] Pindahkan pemeriksaan jenis data ke ...
- [SPARK-47208] [SC-159279][core] Izinkan mengesampingkan memori overhead dasar
- [SPARK-42627] [SC-158021][spark-26494][SQL] Mendukung Oracle TIMESTAMP DENGAN LOCAL TIME ZONE
- [SPARK-47055] [SC-156916][python] Upgrade MyPy 1.8.0
- [SPARK-46906] [SC-157205][ss] Tambahkan pemeriksaan untuk perubahan operator stateful dalam streaming
- [SPARK-47391] [SC-159283][sql] Hapus solusi kasus pengujian untuk JDK 8
- [SPARK-47272] [SC-158960][ss] Tambahkan implementasi MapState untuk STATE API v2.
- [SPARK-47375] [SC-159278][doc][FollowUp] Memperbaiki kesalahan dalam dokumen opsi preferTimestampNTZ JDBC
- [SPARK-42328] [SC-157363][sql] Hapus _LEGACY_ERROR_TEMP_1175 dari kelas kesalahan
- [SPARK-47375] [SC-159261][doc][FollowUp] Perbaiki deskripsi opsi preferTimestampNTZ di dokumen JDBC
- [SPARK-47344] [SC-159146] Memperluas kesalahan INVALID_IDENTIFIER lebih dari sekadar menangkap '-' dalam pengidentifikasi yang tidak dikutip dan memperbaiki masalah terkait "IS !”. NULL" dkk.
- [SPARK-47340] [SC-159039][sql] Ubah "collate" dalam typename StringType menjadi huruf kecil
- [SPARK-47087] [SC-157077][sql] Memunculkan pengecualian Spark dengan kelas kesalahan dalam pemeriksaan nilai konfigurasi
- [SPARK-47327] [SC-158824][sql] Perbaiki masalah keselamatan utas di ICU Collator
- [SPARK-47082] [SC-157058][sql] Perbaiki kondisi kesalahan di luar batas
- [SPARK-47331] [SC-158719][ss] Serialisasi menggunakan kelas kasus/primitif/POJO berdasarkan encoder SQL untuk Api Status Arbitrer v2.
- [SPARK-47250] [SC-158840][ss] Tambahkan validasi tambahan dan perubahan NERF untuk penyedia status RocksDB dan penggunaan keluarga kolom
- [SPARK-47328] [SC-158745][sql] Ganti nama UCS_BASIC kolase menjadi UTF8_BINARY
-
[SPARK-47207] [SC-157845][core] Dukungan
spark.driver.timeoutdanDriverTimeoutPlugin - [SPARK-47370] [SC-158956][doc] Tambahkan dokumen migrasi: Inferensi tipe TimestampNTZ pada file Parquet
- [SPARK-47309] [SC-158827][sql][XML] Tambahkan pengujian unit inferensi skema
-
[SPARK-47295] [SC-158850][sql] Menambahkan ICU StringSearch untuk
startsWithdanendsWithfungsi -
[SPARK-47343] [SC-158851][sql] Perbaiki NPE ketika
sqlStringnilai variabel adalah string null dalam perintah 'execute immediate' -
[SPARK-46293] [SC-150117][connect][PYTHON] Gunakan
protobufdependensi transitif -
[SPARK-46795] [SC-154143][sql] Ganti
UnsupportedOperationExceptiondenganSparkUnsupportedOperationExceptiondisql/core - [SPARK-46087] [SC-149023][python] Sinkronkan dependensi PySpark dalam dokumen dan persyaratan dev
- [SPARK-47169] [SC-158848][sql] Nonaktifkan bucketing pada kolom yang diurutkan
- [SPARK-42332] [SC-153996][sql] Mengubah persyaratan ke SparkException di ComplexTypeMergingExpression
- [SPARK-45827] [SC-158498][sql] Memindahkan pemeriksaan jenis data ke CreatableRelationProvider
- [SPARK-47341] [SC-158825][connect] Ganti perintah dengan relasi dalam beberapa pengujian di SparkConnectClientSuite
- [SPARK-43255] [SC-158026][sql] Ganti kelas kesalahan _LEGACY_ERROR_TEMP_2020 menjadi kesalahan internal
- [SPARK-47248] [SC-158494][sql][COLLATION] Dukungan fungsi string yang ditingkatkan: berisi
-
[SPARK-47334] [SC-158716][sql] Membuat
withColumnRenamedmenggunakan kembali implementasiwithColumnsRenamed - [SPARK-46442] [SC-153168][sql] DS V2 mendukung penurunan fungsi PERCENTILE_CONT dan PERCENTILE_DISC
- [SPARK-47313] [SC-158747][sql] Menambahkan penanganan scala.MatchError di dalam QueryExecution.toInternalError
- [SPARK-45827] [SC-158732][sql] Tambahkan jenis singleton varian untuk Java
- [SPARK-47337] [SC-158743][sql][DOCKER] Tingkatkan versi gambar docker DB2 ke 11.5.8.0
- [SPARK-47302] [SC-158609][sql] Susun kata kunci sebagai pengidentifikasi
-
[SPARK-46817] [SC-154196][core] Perbaiki
spark-daemon.shpenggunaan dengan menambahkandecommissionperintah -
[SPARK-46739] [SC-153553][sql] Tambahkan kelas kesalahan
UNSUPPORTED_CALL -
[SPARK-47102] [SC-158253][sql] Tambahkan
COLLATION_ENABLEDbendera konfigurasi - [SPARK-46774] [SC-153925][sql][AVRO] Gunakan mapreduce.output.fileoutputformat.compress alih-alih mapred.output.compress yang tidak digunakan lagi dalam pekerjaan penulisan Avro
- [SPARK-45245] [SC-146961][python][CONNECT] PythonWorkerFactory: Waktu habis jika pekerja tidak terhubung kembali.
- [SPARK-46835] [SC-158355][sql][Collations] Gabungkan dukungan untuk kolase non-biner
- [SPARK-47131] [SC-158154][sql][COLLATION] Dukungan fungsi string: mengandung, diawali dengan, diakhiri dengan
- [SPARK-46077] [SC-157839][sql] Pertimbangkan jenis yang dihasilkan oleh TimestampNTZConverter di JdbcDialect.compileValue.
- [SPARK-47311] [SC-158465][sql][PYTHON] Menekan pengecualian Python di mana PySpark tidak berada di jalur Python
- [SPARK-47319] [SC-158599][sql] Meningkatkan perhitungan MissingInput
- [SPARK-47316] [SC-158606][sql] Fix TimestampNTZ in Postgres Array
- [SPARK-47268] [SC-158158][sql][Collations] Dukungan untuk partisi ulang dengan kolase
- [SPARK-47191] [SC-157831][sql] Hindari pencarian relasi yang tidak perlu saat membatalkan cache tabel/tampilan
- [SPARK-47168] [SC-158257][sql] Nonaktifkan pushdown filter parquet saat bekerja dengan string yang diurutkan secara non standard
-
[SPARK-47236] [SC-158015][core] Perbaikan
deleteRecursivelyUsingJavaIOuntuk melewati input file yang tidak ada - [SPARK-47238] [SC-158466][sql] Kurangi penggunaan memori eksekutor dengan membuat kode yang dihasilkan di WSCG sebagai variabel siaran
- [SPARK-47249] [SC-158133][connect] Perbaiki bug di mana semua eksekusi koneksi dianggap ditinggalkan terlepas dari status aktualnya
- [SPARK-47202] [SC-157828][python] Perbaiki kesalahan ketik yang merusak fungsi datetime dengan tzinfo
- [SPARK-46834] [SC-158139][sql][Collations] Dukungan untuk agregat
- [SPARK-47277] [SC-158351][3.5] Fungsi util PySpark assertDataFrameEqual tidak boleh mendukung streaming DF
- [SPARK-47155] [SC-158473][python] Perbaiki Masalah Kelas Kesalahan
- [SPARK-47245] [SC-158163][sql] Meningkatkan kode kesalahan untuk INVALID_PARTITION_COLUMN_DATA_TYPE
-
[SPARK-39771] [SC-158425][core] Tambahkan pesan peringatan dalam
Dependencyketika sejumlah terlalu besar blok acak akan dibuat. - [SPARK-47277] [SC-158329] Fungsi util PySpark assertDataFrameEqual tidak boleh mendukung streaming DF
- [SPARK-47293] [SC-158356][core] Membangun batchSchema dengan sparkSchema, bukan menambahkannya satu per satu
- [SPARK-46732] [SC-153517][connect]Buat utas Subquery/Broadcast bekerja dengan manajemen artefak Connect
- [SPARK-44746] [SC-158332][python] Tambahkan lebih banyak dokumentasi UDTF Python untuk fungsi yang menerima tabel input
- [SPARK-47120] [SC-157517][sql] Perbandingan null menurunkan filter data dari subkueri menyebabkan NPE pada filter Parquet
-
[SPARK-47251] [SC-158291][python] Blokir jenis yang tidak valid dari
argsargumen untuksqlperintah -
[SPARK-47251] Batalkan “[SC-158121][python] Mencegah jenis yang tidak valid di argumen
argsuntuk perintahsql” - [SPARK-47015] [SC-157900][sql] Nonaktifkan partisi pada kolom yang dikolasekan
-
[SPARK-46846] [SC-154308][core] Buat
WorkerResourceInfomemperluasSerializablesecara eksplisit - [SPARK-46641] [SC-156314][ss] Tambahkan ambang batas maxBytesPerTrigger
-
[SPARK-47244] [SC-158122][connect]
SparkConnectPlannermembuat fungsi internal privat -
[SPARK-47266] [SC-158146][connect] Pastikan
ProtoUtils.abbreviatemengembalikan tipe yang sama dengan input - [SPARK-46961] [SC-158183][ss] Menggunakan ProcessorContext untuk menyimpan dan mengambil pegangan
- [SPARK-46862] [SC-154548][sql] Nonaktifkan pemangkasan kolom CSV dalam mode multibaris
-
[SPARK-46950] [SC-155803][core][SQL] Sejajarkan
not available codeckelas kesalahan -
[SPARK-46368] [SC-153236][core] Dukungan
readyzdalam REST Submission API - [SPARK-46806] [SC-154108][python] Meningkatkan pesan kesalahan untuk spark.table ketika jenis argumen salah
- [SPARK-47211] [SC-158008][connect][PYTHON] Memperbaiki pengabaian pengurutan string PySpark Connect
-
[SPARK-46552] [SC-151366][sql] Ganti
UnsupportedOperationExceptiondenganSparkUnsupportedOperationExceptiondicatalyst - [SPARK-47147] [SC-157842][python][SQL] Memperbaiki kesalahan konversi string tersusun di PySpark
- [SPARK-47144] [SC-157826][connect][SQL][python] Memperbaiki kesalahan kolasi Spark Connect dengan menambahkan bidang protobuf collateId
- [SPARK-46575] [SC-153200][sql][HIVE] Membuat HiveThriftServer2.startWithContext DevelopApi dapat dicoba kembali dan memperbaiki kelemahan ThriftServerWithSparkContextInHttpSuite
- [SPARK-46696] [SC-153832][core] Di ResourceProfileManager, panggilan fungsi harus terjadi setelah deklarasi variabel
- [SPARK-47214] [SC-157862][python] Buat API UDTF untuk metode 'analisis' untuk membedakan argumen NULL konstan dan jenis argumen lainnya
- [SPARK-46766] [SC-153909][sql][AVRO] Dukungan Kumpulan Buffer ZSTD Untuk sumber data AVRO
- [SPARK-47192] [SC-157819] Mengonversi beberapa kesalahan _LEGACY_ERROR_TEMP_0035
- [SPARK-46928] [SC-157341][ss] Tambahkan dukungan untuk ListState dalam Api Status Arbitrer v2.
-
[SPARK-46881] [SC-154612][core] Dukungan
spark.deploy.workerSelectionPolicy -
[SPARK-46800] [SC-154107][core] Dukungan
spark.deploy.spreadOutDrivers - [SPARK-45484] [SC-146014][sql] Memperbaiki bug yang menggunakan kodek kompresi parquet lz4raw yang salah
- [SPARK-46791] [SC-154018][sql] Mendukung Set Java dalam JavaTypeInference
-
[SPARK-46332] [SC-150224][sql] Migrasi
CatalogNotFoundExceptionke kelas kesalahanCATALOG_NOT_FOUND - [SPARK-47164] [SC-157616][sql] Buat Nilai Default Dari Tipe Lebih Luas Sempit Literal v2 berperilaku sama dengan v1
-
[SPARK-46664] [SC-153181][core] Tingkatkan
Masteruntuk pulih dengan cepat jika tidak ada pekerja dan aplikasi - [SPARK-46759] [SC-153839][sql][AVRO] Codec xz dan zstandard mendukung tingkat kompresi untuk file avro
Dukungan driver Databricks ODBC/JDBC
Databricks mendukung driver ODBC/JDBC yang dirilis dalam 2 tahun terakhir. Silakan unduh driver dan peningkatan yang baru dirilis (unduh ODBC, unduh JDBC).
Lihat Pembaruan pemeliharaan Databricks Runtime 15.2.
Lingkungan sistem
- Sistem Operasi: Ubuntu 22.04.4 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.11.0
- R: 4.3.2
- Delta Lake : 3.2.0
Perpustakaan Python yang Terpasang
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| asttoken | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
| azure-storage-blob | 12.19.1 | azure-storage-file-datalake (penyimpanan-azure-berkas-datalake) | 12.14.0 | panggilan balik | 0.2.0 |
| hitam | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
| botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
| cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| klik | 8.0.4 | cloudpickle | 2.2.1 | komunikasi | 0.1.2 |
| konturpy | 1.0.5 | kriptografi | 41.0.3 | cycler | 0.11.0 |
| Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | dekorator | 5.1.1 | distlib | 0.3.8 |
| titik masuk | 0,4 | menjalankan | 0.8.3 | Tinjauan Segmen | 1.1.1 |
| filelock | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
| google-cloud-core | 2.4.1 | Google Cloud Storage | 2.16.0 | google-crc32c | 1.5.0 |
| google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
| importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
| ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jedi | 0.18.1 | Jeepney | 0.7.1 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | gantungan kunci | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
| more-itertools | 8.10.0 | ekstensi mypy | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | kemasan | 23.2 |
| pandas | 1.5.3 | parso | 0.8.3 | spesifikasi jalur | 0.10.3 |
| kambing hitam | 0.5.3 | pexpect=4.8.0 | 4.8.0 | pickleshare | 0.7.5 |
| Bantal | 9.4.0 | pip | 23.2.1 | platformdir | 3.10.0 |
| plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
| pyasn1 | 0.4.8 | pyasn1-modul | 0.2.8 | pyccolo | 0.0.52 |
| pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
| pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
| pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
| permintaan | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.1 |
| scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
| SecretStorage | 3.3.1 | setuptools | 68.0.0 | six | 1.16.0 |
| smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels | 0.14.0 | ketekunan | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
| traitlets=5.0.5 | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
| ujson | 5.4.0 | pembaruan tanpa pengawasan | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| wheel | 0.38.4 | zipp | 3.11.0 |
Perpustakaan R yang terinstal
Pustaka R diinstal dari cuplikan CRAN di Posit Package Manager.
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| anak panah | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
| pemindahan balik | 1.4.1 | dasar | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | sedikit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-7 | blob | 1.2.4 | boot | 1.3-28 |
| seduh | 1.0-10 | brio | 1.1.4 | sapu | 1.0.5 |
| bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
| caret | 6.0-94 | cellranger | 1.1.0 | kronik | 2.3-61 |
| kelas | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
| Jam | 0.7.0 | kluster | 2.1.4 | codetools | 0.2-19 |
| ruang warna | 2.1-0 | commonmark | 1.9.1 | pengompilasi | 4.3.2 |
| konfigurasi | 0.3.2 | Bingung | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.2 | kredensial | 2.0.1 | curl | 5.2.0 |
| data.table (sebuah paket untuk pengolahan data table) | 1.15.0 | kumpulan data | 4.3.2 | DBI | 1.2.1 |
| dbplyr | 2.4.0 | deskripsi | 1.4.3 | devtools | 2.4.5 |
| bagan | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
| downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | elipsis | 0.3.2 | evaluasi | 0.23 |
| fansi | 1.0.6 | warna | 2.1.1 | peta cepat | 1.1.1 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| asing | 0.8-85 | bengkel pandai besi / membentuk | 0.2.0 | fs | 1.6.3 |
| masa depan | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
| generics | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
| GH | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.2 | lem | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| grafik | 4.3.2 | grDevices | 4.3.2 | kisi | 4.3.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
| gtable | 0.3.4 | helm proyek | 1.3.1 | perlindungan | 2.5.4 |
| lebih tinggi | 0.10 | hms | 1.1.3 | htmltools | 0.5.7 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
| httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-14 | isoband | 0.2.7 | iterator | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-21 | knitr | 1,45 | pelabelan | 0.4.3 |
| nanti | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
| siklus hidup | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.12 | MASSA | 7.3-60 |
| Matrix | 1.5-4.1 | memoise | 2.0.1 | metode | 4.3.2 |
| mgcv | 1.8-42 | pantomim | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.1.1 | paralel | 4.3.2 |
| secara paralel | 1.36.0 | tiang | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | plyr | 1.8.9 | pujian | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
| prodlim | 2023.08.28 | profvis | 0.3.8 | kemajuan | 1.2.3 |
| progressr | 0.14.0 | janji | 1.2.1 | proto | 1.0.0 |
| proksi | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | dapat direaksi | 0.4.4 |
| reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recipes | 1.0.9 | pertandingan ulang | 2.0.0 | pertandinganulang2 | 2.1.2 |
| pengendali jarak jauh | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
| rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
| roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
| scales | 1.3.0 | selectr | 0.4-2 | informasi sesi | 1.2.2 |
| bentuk | 1.4.6 | berkilau | 1.8.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.4 | spasial | 7.3-15 | splines | 4.3.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | statistik | 4.3.2 |
| stats4 | 4.3.2 | string | 1.8.3 | stringr | 1.5.1 |
| bertahan hidup | 3.5-5 | Swagger | 3.33.1 | sys | 3.4.2 |
| systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
| pembentukan teks | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
| tidyselect | 1.2.0 | tidyverse | 2.0.0 | perubahan waktu | 0.3.0 |
| waktuTanggal | 4032.109 | tinytex | 0,49 | alat | 4.3.2 |
| tzdb | 0.4.0 | urlchecker | 1.0.1 | gunakan ini | 2.2.2 |
| utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
| V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
| vroom | 1.6.5 | waldo | 0.5.2 | kumis | 0.4.1 |
| withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
| zeallot | 0.1.0 | zip | 2.3.1 |
Pustaka Java dan Scala terinstal (versi kluster Scala 2.12)
| ID Grup | ID Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
| com.amazonaws | aws-java-sdk-config | 1.12.610 |
| com.amazonaws | aws-java-sdk-core | 1.12.610 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
| com.amazonaws | aws-java-sdk-directory | 1.12.610 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
| com.amazonaws | aws-java-sdk-efs | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
| com.amazonaws | aws-java-sdk-emr | 1.12.610 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
| com.amazonaws | aws-java-sdk-glue | 1.12.610 |
| com.amazonaws | aws-java-sdk-iam | 1.12.610 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
| com.amazonaws | aws-java-sdk-kms | 1.12.610 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
| com.amazonaws | aws-java-sdk-logs | 1.12.610 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
| com.amazonaws | aws-java-sdk-rds | 1.12.610 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ses | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
| com.amazonaws | aws-java-sdk-sns | 1.12.610 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
| com.amazonaws | aws-java-sdk-sts | 1.12.610 |
| com.amazonaws | aws-java-sdk-support | 1.12.610 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
| com.amazonaws | jmespath-java | 1.12.610 |
| com.clearspring.analytics | aliran | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.17.1 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caffeine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-asli |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-asli |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-asli |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-asli |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | Annotasi yang rentan terhadap kesalahan | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | pembuat profil | 1.1.1 |
| com.ibm.icu | icu4j | 72.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfigurasi | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 0.25 |
| io.delta | delta-sharing-client_2.12 | 1.0.5 |
| io.dropwizard.metrics | metrik-anotasi | 4.2.19 |
| io.dropwizard.metrics | inti-metrik | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrik-pemeriksaan kesehatan | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrik-json | 4.2.19 |
| io.dropwizard.metrics | metrik-jvm | 4.2.19 |
| io.dropwizard.metrics | metrik-servlet | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | modul netty-tcnative | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | pengumpul | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | asinan | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | kurator-klien | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | tanaman ivy | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | anotasi-audiens | 0.13.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | aplikasi web jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | pencari-sumberdaya-osgi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,40 |
| org.glassfish.jersey.core | jersey-client | 2,40 |
| org.glassfish.jersey.core | jersey-common | 2,40 |
| org.glassfish.jersey.core | jersey-server | 2,40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotasi | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | pelat penyangga | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | antarmuka uji | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | kompatibel dengan scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |