Databricks Runtime 12.2 LTS (EoS)

Catatan

Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan dan akhir masa pakai. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.

Catatan rilis berikut memberikan informasi tentang Databricks Runtime 12.2 LTS, didukung oleh Apache Spark 3.3.2.

Versi ini menggabungkan semua fitur, peningkatan, dan perbaikan bug dari semua rilis Databricks Runtime sebelumnya. Databricks merilis versi ini pada bulan Maret 2023.

Perubahan perilaku

[Perubahan menerobos] Versi Python baru memerlukan pembaruan klien Python Databricks Connect V1

Catatan

Pembaruan berikutnya memindahkan versi Python di Databricks Runtime 12.2 LTS ke 3.9.21. Versi 3.9.21 tidak memperkenalkan perubahan perilaku apa pun.

Untuk menerapkan patch keamanan yang diperlukan, versi Python di Databricks Runtime 12.2 LTS ditingkatkan dari 3.9.5 ke 3.9.19. Karena perubahan ini dapat menyebabkan kesalahan pada klien yang menggunakan fungsi PySpark tertentu, klien apa pun yang menggunakan Databricks Connect V1 untuk Python dengan Databricks Runtime 12.2 LTS harus diperbarui ke Python 3.9.7 atau yang lebih baru.

Fitur dan peningkatan baru

Python ditingkatkan dari 3.9.19 ke 3.9.21

Versi Python di Databricks Runtime 12.2 LTS diperbarui dari 3.9.19 ke 3.9.21.

Evolusi skema Delta Lake mendukung penentuan kolom sumber dalam pernyataan penggabungan

Anda sekarang dapat menentukan kolom yang hanya ada di tabel sumber dalam tindakan sisipkan atau perbarui untuk pernyataan penggabungan saat evolusi skema diaktifkan. Dalam Databricks Runtime 12.1 ke bawah, tindakan INSERT * dan UPDATE SET * dapat digunakan hanya untuk evolusi skema dengan penggabungan. Lihat Evolusi skema otomatis untuk penggabungan.

Beban kerja Streaming Terstruktur didukung pada kluster dengan mode akses bersama

Anda sekarang dapat menggunakan Streaming Terstruktur untuk berinteraksi dengan Unity Catalog pada komputasi dengan mode akses standar. Beberapa batasan berlaku. Lihat Fungsionalitas Streaming Terstruktur apa yang didukung Oleh Katalog Unity?.

Fitur baru untuk I/O Prediktif

Dukungan foton untuk Foreachbatch sink sekarang tersedia. Beban kerja yang mengalir dari sumber dan bergabung ke Tabel Delta atau menulis ke beberapa sink sekarang dapat menguntungkan dari sink yang telah difotonisasi Foreachbatch.

Dukungan untuk pengaliasan kolom lateral secara implisit

Azure Databricks sekarang mendukung alias kolom lateral implisit secara default. Sekarang Anda dapat menggunakan kembali ekspresi yang ditentukan sebelumnya dalam daftar yang sama SELECT . Misalnya, diberikan SELECT 1 AS a, a + 1 AS b, a di a + 1 dapat diselesaikan sebagai yang telah didefinisikan 1 AS a sebelumnya. Periksa Resolusi nama untuk detail selengkapnya dalam urutan resolusi. Untuk menonaktifkan fitur ini, Anda dapat mengatur spark.sql.lateralColumnAlias.enableImplicitResolution ke false.

Fitur forEachBatch baru

Photon sekarang didukung saat menggunakan foreachBatch untuk menulis ke sink data.

Opsi Koneksi Standar untuk Federasi Kueri

Anda sekarang dapat menggunakan sekumpulan opsi terpadu (host, port, database, pengguna, kata sandi)untuk menyambungkan ke sumber data yang didukung di Federasi Kueri. Port bersifat opsional dan menggunakan nomor port default untuk setiap sumber data, kecuali ditentukan.

Pustaka fungsi SQL yang diperluas untuk manajemen array

Anda sekarang dapat menghapus semua elemen NULL dari array menggunakan array_compact. Untuk menambahkan elemen ke array, gunakan array_append.

Fungsi masker baru untuk menganonimkan string

Panggil fungsi mask untuk menganonimkan nilai string sensitif.

Kondisi kesalahan umum sekarang mengembalikan SQLSTATEs

Sebagian besar kondisi kesalahan di Databricks Runtime sekarang menyertakan nilai SQLSTATE yang telah didokumentasikan yang dapat digunakan untuk menguji kemunculan kesalahan secara standar sesuai dengan SQL.

Memanggil fungsi generator dalam klausa FROM

Anda sekarang dapat memanggil fungsi generator bernilai tabel seperti explode di dalam klausa biasa dari sebuah kueri FROM. Ini menyelaraskan pemanggilan fungsi generator dengan fungsi tabel bawaan dan yang ditentukan pengguna lainnya.

Dukungan untuk buffer protokol umumnya tersedia

Anda dapat menggunakan from_protobuf fungsi dan to_protobuf untuk bertukar data antara jenis biner dan struct. Lihat Buffer protokol baca dan tulis.

Fitur "Go-to-definition" untuk variabel dan fungsi dalam buku catatan

Di notebook, Anda dapat dengan cepat masuk ke definisi variabel, fungsi, atau kode di balik %run pernyataan dengan mengklik kanan variabel atau nama fungsi.

Perbaikan cepat Notebook untuk mengimpor pustaka secara otomatis

Notebook Databricks sekarang menawarkan fitur perbaikan cepat untuk mengimpor pustaka secara otomatis. Jika Anda lupa mengimpor pustaka seperti pandas, arahkan mouse ke peringatan sintaks bergaris bawah, lalu klik Perbaikan Cepat. Fitur ini memerlukan Asisten Databricks diaktifkan di Ruang Kerja Anda.

Perbaikan bug

  • Peningkatan konsistensi untuk perilaku penerapan Delta pada transaksi kosong yang berkaitan dengan perintah update, delete, dan merge. Dalam tingkat isolasi WriteSerializable, perintah yang tidak menghasilkan perubahan sekarang membuat commit kosong. Pada tingkat isolasi Serializable, transaksi kosong tersebut sekarang tidak membuat commit.

Perubahan perilaku

Perubahan perilaku pada fitur alias untuk kolom lateral yang baru

Fitur alias kolom lateral baru memperkenalkan perubahan perilaku untuk kasus berikut selama resolusi nama:

  • Alias kolom lateral sekarang lebih diutamakan daripada referensi terkoordinasi dengan nama yang sama. Misalnya, untuk kueri SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1) ini, di dalam c1, c1 AS c2 diselesaikan menjadi referensi t.c1 berkorelasi, tetapi sekarang berubah menjadi alias kolom lateral 1 AS c1. Kueri sekarang mengembalikan NULL.
  • Alias kolom lateral sekarang lebih diutamakan daripada parameter fungsi dengan nama yang sama. Misalnya, untuk fungsi CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x, x dalam isi fungsi diselesaikan menjadi parameter fungsi x, tetapi berubah menjadi alias kolom lateral x + 1 dalam isi fungsi. Kueri, SELECT * FROM func(1) sekarang mengembalikan 2, 2.
  • Untuk menonaktifkan fitur alias kolom lateral, atur spark.sql.lateralColumnAlias.enableImplicitResolution ke false. Untuk informasi selengkapnya, lihat Resolusi nama.

Peningkatan pustaka

  • Pustaka Python yang ditingkatkan:
    • filelock dari 3.8.2 hingga 3.9.0
    • joblib dari 1.1.0 hingga 1.1.1
    • platformdirs dari 2.6.0 hingga 2.6.2
    • whatthepatch dari 1.0.3 hingga 1.0.4
  • Pustaka R yang ditingkatkan:
    • kelas dari 7,3-20 hingga 7,3-21
    • codetools dari 0.2-18 ke 0.2-19
    • MASSA dari 7.3-58 ke 7.3-58.2
    • nlme dari 3,1-160 ke 3,1-162
    • Rserve dari 1,8-11 ke 1,8-12
    • SparkR dari 3.3.1 ke 3.3.2

Perubahan perilaku

  • Pengguna sekarang diharuskan memiliki SELECT hak istimewa dan MODIFY pada file apa pun saat membuat skema dengan lokasi yang ditentukan.

Apache Spark

Databricks Runtime 12.2 menyertakan Apache Spark 3.3.2. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam versi sebelumnya, serta yang berikut ini:

  • [SPARK-42416] [SC-123205][sc-122851][SQL] Operasi set tanggal tidak boleh menyelesaikan rencana logis yang dianalisis lagi
  • [SPARK-41848] Kembalikan "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Memperbaiki tugas yang dijadwalkan berlebihan dengan TaskResourceProfile"
  • [SPARK-42162] [SC-122711][es-556261] Memperkenalkan ekspresi MultiCommutativeOp sebagai pengoptimalan memori untuk kanonisisasi pohon besar ekspresi komutatif
  • [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Perbaiki pengaturan kedalaman rekursif untuk fungsi Protobuf
  • [SPARK-42002] [SC-122476][connect][PYTHON] Implementasikan DataFrameWriterV2
  • [SPARK-41716] [SC-122545][connect] Ganti nama _catalog_to_pandas menjadi _execute_and_fetch di Katalog
  • [SPARK-41490] [SC-121774][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2441
  • [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Implementasi Catalog.cacheTable, isCached, dan uncache
  • [SPARK-42191] [SC-121990][sql] Dukungan udf 'luhn_check'
  • [SPARK-42253] [SC-121976][python] Tambahkan pengujian untuk mendeteksi kelas kesalahan duplikat
  • [SPARK-42268] [SC-122251][connect][PYTHON] Tambahkan UserDefinedType dalam protos
  • [SPARK-42231] [SC-121841][sql] Berubah MISSING_STATIC_PARTITION_COLUMN menjadi internalError
  • [SPARK-42136] [SC-122554] Pemfaktoran ulang perhitungan partisi output BroadcastHashJoinExec
  • [SPARK-42158] [SC-121610][sql] Integrasikan _LEGACY_ERROR_TEMP_1003 ke dalam FIELD_NOT_FOUND
  • [SPARK-42192] [12.x][sc-121820][PYTHON] Migrasi TypeError dari pyspark/sql/dataframe.py ke PySparkTypeError
  • [SPARK-35240] Kembalikan "[SC-118242][ss] Gunakan CheckpointFileManager ...
  • [SPARK-41488] [SC-121858][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1176 (dan 1177)
  • [SPARK-42232] [SC-122267][sql] Ganti nama kelas kesalahan: UNSUPPORTED_FEATURE.JDBC_TRANSACTION
  • [SPARK-42346] [SC-122480][sql] Menulis ulang agregat distinct setelah penggabungan subkueri
  • [SPARK-42306] [SC-122539][sql] Integrasikan _LEGACY_ERROR_TEMP_1317 ke dalam UNRESOLVED_COLUMN.WITH_SUGGESTION
  • [SPARK-42234] [SC-122354][sql] Ganti nama kelas kesalahan: UNSUPPORTED_FEATURE.REPEATED_PIVOT
  • [SPARK-42343] [SC-122437][core] Abaikan IOException dalam handleBlockRemovalFailure jika SparkContext dihentikan
  • [SPARK-41295] [SC-122442][spark-41296][SQL] Ganti nama kelas kesalahan
  • [SPARK-42320] [SC-122478][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2188
  • [SPARK-42255] [SC-122483][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2430
  • [SPARK-42156] [SC-121851][connect] SparkConnectClient mendukung RetryPolicies sekarang
  • [SPARK-38728] [SC-116723][sql] Uji kelas kesalahan: FAILED_RENAME_PATH
  • [SPARK-40005] [12.X] Contoh mandiri dalam PySpark
  • [SPARK-39347] [SC-122457][ss] Perbaikan bug untuk perhitungan jendela waktu ketika waktu kejadian < kurang dari 0
  • [SPARK-42336] [SC-122458][core] Gunakan getOrElse() alih-alih contains() di ResourceAllocator
  • [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF pada Spark Connect
  • [SPARK-42217] [SC-122263][sql] Mendukung alias kolom lateral implisit dalam kueri dengan Window
  • [SPARK-35240] [SC-118242][ss] Gunakan CheckpointFileManager untuk manipulasi file titik pemeriksaan
  • [SPARK-42294] [SC-122337][sql] Sertakan nilai default kolom dalam output DESCRIBE untuk tabel V2
  • [SPARK-41979] Kembalikan "Kembalikan "[12.x][sc-121190][SQL] Tambahkan titik yang hilang untuk pesan kesalahan di kelas kesalahan.""
  • [SPARK-42286] [SC-122336][sql] Fallback ke jalur kode codegen sebelumnya untuk expr kompleks dengan CAST
  • [SPARK-42275] [SC-122249][connect][PYTHON] Hindari menggunakan daftar bawaan, dict dalam pengetikan statis
  • [SPARK-41985] [SC-122172][sql] Memusatkan lebih banyak aturan resolusi kolom
  • [SPARK-42126] [SC-122330][python][CONNECT] Terima jenis pengembalian dalam string DDL untuk Python UDF Skalar di Spark Connect
  • [SPARK-42197] [SC-122328][sc-121514][CONNECT] Memanfaatkan kembali inisialisasi JVM, serta memisahkan grup konfigurasi untuk diatur dalam mode lokal jarak jauh
  • [SPARK-41575] [SC-120118][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2054
  • [SPARK-41985] Kembalikan "[SC-122172][sql] Pusatkan lebih banyak aturan resolusi kolom"
  • [SPARK-42123] [SC-122234][sc-121453][SQL] Sertakan nilai default kolom dalam DESCRIBE dan SHOW CREATE TABLE output
  • [SPARK-41985] [SC-122172][sql] Memusatkan lebih banyak aturan resolusi kolom
  • [SPARK-42284] [SC-122233][connect] Pastikan rakitan server koneksi dibangun sebelum menjalankan pengujian klien - SBT
  • [SPARK-42239] [SC-121790][sql] Integrasi MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42278] [SC-122170][sql] DS V2 pushdown mendukung dialek JDBC yang dikompilasi SortOrder sendiri
  • [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics seharusnya menangani Python UDAF
  • [SPARK-41979] Batalkan “[12.x][sc-121190][SQL] Tambahkan titik yang hilang untuk pesan kesalahan di kelas kesalahan.”
  • [SPARK-42224] [12.x][sc-121708][CONNECT] Memigrasikan TypeError ke dalam kerangka kerja kesalahan untuk fungsi Spark Connect
  • [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Memigrasikan kesalahan Spark Connect ke dalam kerangka kerja kesalahan PySpark.
  • [SPARK-42119] [SC-121913][sc-121342][SQL] Tambahkan fungsi bernilai tabel bawaan sebaris dan inline_outer
  • [SPARK-41489] [SC-121713][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2415
  • [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Memperkenalkan PySparkValueError dan PySparkTypeError
  • [SPARK-42081] [SC-121723][sql] Meningkatkan validasi perubahan rencana
  • [SPARK-42225] [12.x][sc-121714][CONNECT] Tambahkan SparkConnectIllegalArgumentException untuk menangani kesalahan Spark Connect dengan tepat.
  • [SPARK-42044] [12.x][sc-121280][SQL] Perbaiki pesan kesalahan yang salah untuk MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42194] [12.x][sc-121712][PS] Izinkan parameter kolom saat membuat DataFrame dengan Seri.
  • [SPARK-42078] [12.x][sc-120761][PYTHON] Memigrasikan kesalahan yang dilemparkan oleh JVM ke PySparkException.
  • [SPARK-42133] [12.x][sc-121250] Tambahkan metode API Himpunan Data dasar ke Klien SparkConnect Scala
  • [SPARK-41979] [12.x][sc-121190][SQL] Tambahkan titik yang hilang untuk pesan kesalahan di kelas kesalahan.
  • [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Scalar Inline Python UDF dalam Spark Connect
  • [SPARK-42051] [SC-121994][sql] Dukungan Codegen untuk HiveGenericUDF
  • [SPARK-42257] [SC-121948][core] Hapus pengurut eksternal variabel yang tidak digunakan
  • [SPARK-41735] [SC-121771][sql] Gunakan MINIMAL alih-alih STANDAR untuk SparkListenerSQLExecutionEnd
  • [SPARK-42236] [SC-121882][sql] Refine NULLABLE_ARRAY_OR_MAP_ELEMENT
  • [SPARK-42233] [SC-121775][sql] Meningkatkan pesan kesalahan untuk PIVOT_AFTER_GROUP_BY
  • [SPARK-42229] [SC-121856][core] Bermigrasi SparkCoreErrors ke kelas kesalahan
  • [SPARK-42163] [SC-121839][sql] Perbaiki pemangkasan skema untuk indeks array yang tidak dapat dilipat atau kunci peta
  • [SPARK-40711] [SC-119990][sql] Tambahkan metrik ukuran tumpahan untuk jendela
  • [SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Membuat createDataFrame mendukung pemaksaan AtomicType -> StringType
  • [SPARK-42202] [SC-121837][connect][Test] Meningkatkan logika penghentian server uji E2E
  • [SPARK-41167] [SC-117425][sql] Tingkatkan performa multi like dengan membuat predikat pohon ekspresi seimbang
  • [SPARK-41931] [SC-121618][sql] Pesan kesalahan yang lebih baik untuk definisi jenis kompleks yang tidak lengkap
  • [SPARK-36124] [SC-121339][sc-110446][SQL] Mendukung subkueri dengan korelasi melalui UNION
  • [SPARK-42090] [SC-121290][3.3] Menambahkan jumlah uji ulang sasl di RetryingBlockTransferor
  • [SPARK-42157] [SC-121264][core] spark.scheduler.mode=FAIR sebaiknya menyediakan penjadwal FAIR
  • [SPARK-41572] [SC-120772][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2149
  • [SPARK-41983] [SC-121224][sql] Ganti nama & tingkatkan pesan kesalahan untuk NULL_COMPARISON_RESULT
  • [SPARK-41976] [SC-121024][sql] Meningkatkan pesan kesalahan untuk INDEX_NOT_FOUND
  • [SPARK-41994] [SC-121210][sc-120573] Tetapkan SQLSTATE (1/2)
  • [SPARK-41415] [SC-121117][3.3] Percobaan Ulang Permintaan SASL
  • [SPARK-38591] [SC-121018][sql] Tambahkan flatMapSortedGroups dan cogroupSorted
  • [SPARK-41975] [SC-120767][sql] Meningkatkan pesan kesalahan untuk INDEX_ALREADY_EXISTS
  • [SPARK-42056] [SC-121158][sql][PROTOBUF] Tambahkan opsi yang hilang untuk fungsi Protobuf
  • [SPARK-41984] [SC-120769][sql] Ganti nama & tingkatkan pesan kesalahan untuk RESET_PERMISSION_TO_ORIGINAL
  • [SPARK-41948] [SC-121196][sql] Perbaiki NPE untuk kelas kesalahan: CANNOT_PARSE_JSON_FIELD
  • [SPARK-41772] [SC-121176][connect][PYTHON] Perbaiki nama kolom yang salah di withField's doctest
  • [SPARK-41283] [SC-121175][connect][PYTHON] Tambahkan array_append ke Connect
  • [SPARK-41960] [SC-120773][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1056
  • [SPARK-42134] [SC-121116][sql] Perbaiki getPartitionFiltersAndDataFilters() untuk menangani filter tanpa atribut yang dirujuk
  • [SPARK-42096] [SC-121012][connect] Beberapa pembersihan kode untuk connect modul
  • [SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Memperbaiki count(*) dan count(col(*))
  • [SPARK-42045] [SC-120958][sc-120450][SQL] mode ANSI SQL: Round/Bround harus mengembalikan kesalahan pada luapan bilangan bulat
  • [SPARK-42043] [SC-120968][connect] Hasil Klien Scala dengan Pengujian E2E
  • [SPARK-41884] [SC-121022][connect] Dukungan tuple naif sebagai baris berlapis
  • [SPARK-42112] [SC-121011][sql][SS] Tambahkan pemeriksaan null sebelum ContinuousWriteRDD#compute fungsi ditutup dataWriter
  • [SPARK-42077] [SC-120553][connect][PYTHON] Literal harus melempar TypeError untuk DataType yang tidak didukung
  • [SPARK-42108] [SC-120898][sql] Membuat Analyzer berubah Count(*) menjadi Count(1)
  • [SPARK-41666] [SC-120928][sc-119009][PYTHON] Mendukung SQL berparameter oleh sql()
  • [SPARK-40599] [SC-120930][sql] Melonggarkan jenis aturan multiTransform untuk mengizinkan alternatif berupa beragam Seq
  • [SPARK-41574] [SC-120771][sql] Perbarui _LEGACY_ERROR_TEMP_2009 sebagai INTERNAL_ERROR.
  • [SPARK-41579] [SC-120770][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1249
  • [SPARK-41974] [SC-120766][sql] Berubah INCORRECT_END_OFFSET menjadi INTERNAL_ERROR
  • [SPARK-41530] [SC-120916][sc-118513][CORE] Mengganti Nama MedianHeap menjadi PercentileMap dan mendukung persentil
  • [SPARK-41757] [SC-120608][spark-41901][CONNECT] Perbaiki representasi string untuk kelas Kolom
  • [SPARK-42084] [SC-120775][sql] Hindari membocorkan pembatasan khusus akses yang memenuhi syarat
  • [SPARK-41973] [SC-120765][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1311
  • [SPARK-42039] [SC-120655][sql] SPJ: Hapus Opsi di KeyGroupedPartitioning#partitionValuesOpt
  • [SPARK-42079] [SC-120712][connect][PYTHON] Ganti nama pesan proto untuk toDF dan withColumnsRenamed
  • [SPARK-42089] [SC-120605][connect][PYTHON] Perbaiki masalah nama variabel dalam fungsi lambda berlapis
  • [SPARK-41982] [SC-120604][sql] Partisi jenis string tidak boleh diperlakukan sebagai jenis numerik
  • [SPARK-40599] [SC-120620][sql] Tambahkan metode multiTransform ke TreeNode untuk menghasilkan alternatif
  • [SPARK-42085] [SC-120556][connect][PYTHON] Buat from_arrow_schema dukungan tipe berlapis
  • [SPARK-42057] [SC-120507][sql][PROTOBUF] Perbaiki bagaimana pengecualian ditangani dalam pelaporan kesalahan.
  • [SPARK-41586] [12.x][all tests][SC-120544][python] Memperkenalkan pyspark.errors dan kelas kesalahan untuk PySpark.
  • [SPARK-41903] [SC-120543][connect][PYTHON] Literal harus mendukung ndarray 1-dim
  • [SPARK-42021] [SC-120584][connect][PYTHON] Mengaktifkan createDataFrame dukungan array.array
  • [SPARK-41896] [SC-120506][sql] Pemfilteran menurut indeks baris mengembalikan hasil kosong
  • [SPARK-41162] [SC-119742][sql] Perbaiki anti- dan semi-join untuk penggabungan diri dengan agregasi
  • [SPARK-41961] [SC-120501][sql] Mendukung fungsi bernilai tabel dengan LATERAL
  • [SPARK-41752] [SC-120550][sql][UI] Mengelompokkan eksekusi berlapis di bawah eksekusi root
  • [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literal harus mendukung jenis data Numpy
  • [SPARK-42028] [SC-120344][connect][PYTHON] Memotong tanda waktu nanodetikl
  • [SPARK-42011] [SC-120534][connect][PYTHON] Mengimplementasikan DataFrameReader.csv
  • [SPARK-41990] [SC-120532][sql] Gunakan FieldReference.column alih-alih apply dalam konversi filter V1 ke V2
  • [SPARK-39217] [SC-120446][sql] Membuat DPP mendukung sisi pemangkasan memiliki Union
  • [SPARK-42076] [SC-120551][connect][PYTHON] Memisahkan proses konversi data arrow -> rows ke conversion.py
  • [SPARK-42074] [SC-120540][sql] Memungkinkan KryoSerializer di TPCDSQueryBenchmark untuk menerapkan pendaftaran kelas SQL
  • [SPARK-42012] [SC-120517][connect][PYTHON] Laksanakan fungsi DataFrameReader.orc
  • [SPARK-41832] [SC-120513][connect][PYTHON] Perbaiki DataFrame.unionByName, tambahkan allow_missing_columns
  • [SPARK-38651] [SC-120514] [SQL] Tambah spark.sql.legacy.allowEmptySchemaWrite
  • [SPARK-41991] [SC-120406][sql] CheckOverflowInTableInsert harus menerima ExpressionProxy sebagai anak
  • [SPARK-41232] [SC-120073][sql][PYTHON] Menambahkan fungsi array_append
  • [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader harus mendukung daftar jalur
  • [SPARK-42071] [SC-120533][core] Daftar scala.math.Ordering$Reverse ke KyroSerializer
  • [SPARK-41986] [SC-120429][sql] Memperkenalkan shuffle pada SinglePartition
  • [SPARK-42016] [SC-120428][connect][PYTHON] Aktifkan pengujian yang terkait dengan kolom berlapis
  • [SPARK-42042] [SC-120427][connect][PYTHON] DataFrameReader harus mendukung skema StructType
  • [SPARK-42031] [SC-120389][core][SQL] Bersihkan metode yang tidak perlu di-override
  • [SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Membuat createDataFrame(rows/lists/tuples/dicts) dukungan jenis berlapis
  • [SPARK-41437] [SC-117601][sql][ALL TESTS] Jangan optimalkan kueri input dua kali untuk fallback penulisan v1
  • [SPARK-41840] [SC-119719][connect][PYTHON] Tambahkan alias yang hilang groupby
  • [SPARK-41846] [SC-119717][connect][PYTHON] Mengaktifkan doctest untuk fungsi jendela
  • [SPARK-41914] [SC-120094][sql] FileFormatWriter mewujudkan rencana AQE sebelum mengakses outputOrdering
  • [SPARK-41805] [SC-119992][sql] Gunakan kembali ekspresi di WindowSpecDefinition
  • [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range untuk menerima float sebagai argumen
  • [SPARK-42029] [SC-120336][connect] Tambahkan aturan Guava Shading untuk connect-common menghindari kegagalan startup
  • [SPARK-41989] [SC-120334][python] Hindari melanggar konfigurasi pengelogan dari pyspark.pandas
  • [SPARK-42003] [SC-120331][sql] Kurangi kode duplikat di ResolveGroupByAll
  • [SPARK-41635] [SC-120313][sql] Perbaiki grup dengan semua pelaporan kesalahan
  • [SPARK-41047] [SC-120291][sql] Tingkatkan dokumentasi untuk fungsi round
  • [SPARK-41822] [SC-120122][connect] Menyiapkan koneksi gRPC untuk klien Scala/JVM
  • [SPARK-41879] [SC-120264][connect][PYTHON] Membuat DataFrame.collect mendukung tipe bersarang
  • [SPARK-41887] [SC-120268][connect][PYTHON] Membuat DataFrame.hint menerima parameter bertipe daftar
  • [SPARK-41964] [SC-120210][connect][PYTHON] Tambahkan daftar fungsi IO yang tidak didukung
  • [SPARK-41595] [SC-120097][sql] Mendukung fungsi generator explode/explode_outer dalam klausul FROM
  • [SPARK-41957] [SC-120121][connect][PYTHON] Aktifkan pengujian dokumen untuk DataFrame.hint
  • [SPARK-41886] [SC-120141][connect][PYTHON] DataFrame.intersect doctest output memiliki urutan yang berbeda
  • [SPARK-41442] [SC-117795][sql][ALL TESTS] Hanya perbarui nilai SQLMetric jika menggabungkan dengan metrik yang valid
  • [SPARK-41944] [SC-120046][connect] Meneruskan konfigurasi saat mode lokal jarak jauh aktif
  • [SPARK-41708] [SC-119838][sql] Tarik informasi v1write ke WriteFiles
  • [SPARK-41780] [SC-120000][sql] Sebaiknya lempar INVALID_PARAMETER_VALUE.PATTERN ketika parameter regexp tidak valid
  • [SPARK-41889] [SC-119975][sql] Lampirkan penyebab utama ke invalidPatternError & lakukan refaktor kelas kesalahan INVALID_PARAMETER_VALUE
  • [SPARK-41860] [SC-120028][sql] Membuat kelas kasus AvroScanBuilder dan JsonScanBuilder
  • [SPARK-41945] [SC-120010][connect][PYTHON] Python: menghubungkan data kolom klien yang hilang dengan pyarrow. Table.to_pylist
  • [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Pengkode Agnostik
  • [SPARK-41354] [SC-119995][connect][PYTHON] Mengimplementasikan RepartitionByExpression
  • [SPARK-41581] [SC-119997][sql] Perbarui _LEGACY_ERROR_TEMP_1230 sebagai INTERNAL_ERROR
  • [SPARK-41928] [SC-119972][connect][PYTHON] Tambahkan daftar yang tidak didukung untuk functions
  • [SPARK-41933] [SC-119980][connect] Sediakan mode lokal yang secara otomatis memulai server
  • [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame' harus menghormati skema DDL yang disediakan pengguna
  • [SPARK-41936] [SC-119978][connect][PYTHON] Buat withMetadata penggunaan withColumns kembali proto
  • [SPARK-41898] [SC-119931][connect][PYTHON] Window.rowsBetween, Window.rangeBetween pemeriksaan tipe parameter kesetaraan dengan pyspark
  • [SPARK-41939] [SC-119977][connect][PYTHON] Tambahkan daftar yang tidak didukung untuk catalog fungsi
  • [SPARK-41924] [SC-119946][koneksi][PYTHON] Buat StructType mendukung metadata dan Implementasi DataFrame.withMetadata
  • [SPARK-41934] [SC-119967][connect][PYTHON] Tambahkan daftar fungsi yang tidak didukung untuk session
  • [SPARK-41875] [SC-119969][connect][PYTHON] Tambahkan kasus pengujian untuk Dataset.to()
  • [SPARK-41824] [SC-119970][connect][PYTHON] Abaikan doctest untuk penjelasan dari connect
  • [SPARK-41880] [SC-119959][connect][PYTHON] Buat fungsi from_json menerima skema non-literal
  • [SPARK-41927] [SC-119952][connect][PYTHON] Tambahkan daftar yang tidak didukung untuk GroupedData
  • [SPARK-41929] [SC-119949][connect][PYTHON] Tambahkan fungsi array_compact
  • [SPARK-41827] [SC-119841][connect][PYTHON] Membuat GroupBy menerima daftar kolom
  • [SPARK-41925] [SC-119905][sql] Aktifkan spark.sql.orc.enableNestedColumnVectorizedReader secara default
  • [SPARK-41831] [SC-119853][connect][PYTHON] Membuat DataFrame.select menerima daftar kolom
  • [SPARK-41455] [SC-119858][connect][PYTHON] Buat DataFrame.collect buang info zona waktu
  • [SPARK-41923] [SC-119861][connect][PYTHON] Tambahkan DataFrame.writeTo ke daftar yang tidak didukung
  • [SPARK-41912] [SC-119837][sql] Subkueri tidak boleh memvalidasi CTE
  • [SPARK-41828] [SC-119832][connect][PYTHON][12.x] Menyediakan dukungan untuk dataframe kosong
  • [SPARK-41905] [SC-119848][connect] Dukungan nama sebagai string dalam potongan
  • [SPARK-41869] [SC-119845][connect] Menolak string tunggal dalam dropDuplicates
  • [SPARK-41830] [SC-119840][connect][PYTHON] Buat DataFrame.sample menerima parameter yang sama dengan PySpark
  • [SPARK-41849] [SC-119835][koneksi] Menerapkan DataFrameReader.text
  • [SPARK-41861] [SC-119834][sql] Buat v2 ScanBuilders' build() mengembalikan pemindaian yang diketik
  • [SPARK-41825] [SC-119710][connect][PYTHON] Aktifkan doctest terkait dengan DataFrame.show
  • [SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Buat createDataFrame penanganan None/NaN dengan benar
  • [SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Buat DataFrame.collect menangani None/NaN/Array/Binary dengan benar
  • [SPARK-39318] [SC-119713][sql] Hapus tpch-plan-stability WithStats golden files
  • [SPARK-41791] [SC-119745] Menambahkan jenis kolom metadata sumber file baru
  • [SPARK-41790] [SC-119729][sql] Atur format pembaca TRANSFORM dan penulis dengan benar
  • [SPARK-41829] [SC-119725][connect][PYTHON] Tambahkan parameter pemesanan yang hilang di Sort dan sortWithinPartitions
  • [SPARK-41576] [SC-119718][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2051
  • [SPARK-41821] [SC-119716][connect][PYTHON] Memperbaiki uji dokumentasi untuk DataFrame.describe
  • [SPARK-41871] [SC-119714][connect] Parameter petunjuk DataFrame dapat berupa str, float atau int
  • [SPARK-41720] [SC-119076][sql] Ganti Nama UnresolvedFunc menjadi UnresolvedFunctionName
  • [SPARK-41573] [SC-119567][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2136
  • [SPARK-41862] [SC-119492][sql] Memperbaiki bug kebenaran yang terkait dengan nilai DEFAULT di pembaca Orc
  • [SPARK-41582] [SC-119482][sc-118701][CORE][sql] Gunakan INVALID_TYPED_LITERAL kembali alih-alih _LEGACY_ERROR_TEMP_0022

Pembaruan pemeliharaan

Lihat Pembaruan Pemeliharaan Databricks Runtime 12.2.

Lingkungan sistem

  • Sistem Operasi: Ubuntu 20.04.5 LTS
    • Catatan: Ini adalah versi Ubuntu yang digunakan oleh kontainer Databricks Runtime. Kontainer Databricks Runtime berjalan pada komputer virtual penyedia cloud, yang mungkin menggunakan versi Ubuntu atau distribusi Linux yang berbeda.
  • Java: Zulu 8.68.0.21-CA-linux64
  • Scala: 2.12.15
  • Python: 3.9.21
  • R: 4.2.2
  • Danau Delta: 2.2.0

Perpustakaan Python terinstal

Perpustakaan Versi Perpustakaan Versi Perpustakaan Versi
argon2-cffi 21.3.0 Pengikatan Argon2-cffi 21.2.0 asttoken 2.0.5
atribut 21.4.0 panggilan balik 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 hitam 22.3.0 pemutih 4.1.0
boto3 1.21.32 botocore 1.24.32 sertifikat 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
klik 8.0.4 Kriptografi 3.4.8 pengendara sepeda 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
penghias 5.1.1 defusedxml 0.7.1 distlib 0.3.6
konversi docstring ke markdown 0.11 titik masuk 0,4 menjalankan 0.8.3
gambaran umum aspek 1.0.0 fastjsonschema 2.16.2 filelock 3.9.0
alat pengelola font 4.25.0 IDNA 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.1 jsonschema 4.4.0 jupyter-client (klien Jupyter) 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 Mccabe 0.7.0 penyetelan salah 0.8.4
ekstensi mypy 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
buku catatan 6.4.8 numpy (perpustakaan Python untuk operasi numerik) 1.21.5 pengemasan 21.3
Panda 1.4.2 Pandocfilters 1.5.0 pengurai 0.8.3
spesifikasi jalur 0.9.0 kambing hitam 0.5.2 pexpect=4.8.0 4.8.0
pickleshare 0.7.5 Bantal 9.0.1 pipa 21.2.4
platformdirs 2.6.2 plotly 5.6.0 pengaya 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
permintaan 2.27.1 requests-unixsocket 0.2.0 tali 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy (perpustakaan Python untuk komputasi ilmiah) 1.7.3
Seaborn (perpustakaan Python untuk visualisasi data) 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
Enam 1.16.0 alat penyaring sup 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels (paket Python untuk pemodelan statistik) 0.13.2 kegigihan 8.0.1
selesai 0.13.1 jalur uji 0.5.0 threadpoolctl 2.2.0
Tokenisasi-RT 4.2.1 tomli 1.2.2 Tornado 6.1
traitlets 5.1.1 ekstensi pengetikan (typing_extensions) 4.1.1 ujson 5.1.0
pembaruan otomatis tanpa pengawasan 0.1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings=0.5.1 0.5.1 apa itu patch 1.0.4
wheel 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Perpustakaan R yang diinstal

Pustaka R diinstal dari cuplikan CRAN Microsoft pada 2022-11-11. Rekam jepret tidak lagi tersedia.

Perpustakaan Versi Perpustakaan Versi Perpustakaan Versi
anak panah 10.0.0 askpass 1.1 pastikanbahwa 0.2.1
pemindahan fitur ke versi lama (backports) 1.4.1 dasar 4.2.2 base64enc 0.1-3
sedikit 4.0.4 bit-64 4.0.5 blob 1.2.3
sepatu bot 1.3-28 menyeduh 1,0-8 Brio 1.1.3
sapu 1.0.1 bslib 0.4.1 cashmere 1.0.6
layanan panggilan 3.7.3 caret 6.0-93 cellranger 1.1.0
kronogram 2.3-58 kelas 7.3-21 CLI 3.4.1
pemangkas 0.8.0 Jam 0.6.1 kluster 2.1.4
codetools 0.2-19 ruang warna 2.0-3 commonmark 1.8.1
pengkompilasi 4.2.2 konfig 0.3.1 cpp11 0.4.3
kriyon 1.5.2 kredensial 1.3.2 melengkung 4.3.3
data.table (sebuah paket untuk pengolahan data table) 1.14.4 kumpulan data 4.2.2 DBI 1.1.3
dbplyr 2.2.1 deskripsi 1.4.2 devtools 2.4.5
diffobj 0.3.5 digest 0.6.30 pencahayaan turun 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
elipsis 0.3.2 menilai 0,18 penggemar 1.0.3
warna-warna 2.1.1 pemetaan cepat 1.1.0 fontawesome 0.4.0
untuk kucing 0.5.2 foreach (pengulangan untuk setiap elemen) 1.5.2 asing 0.8-82
bengkel pandai besi 0.2.0 fs 1.5.2 masa depan 1.29.0
menerapkan di masa depan 1.10.0 kumur 1.2.1 obat generik 0.1.3
Gert 1.9.1 ggplot2 3.4.0 GH 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 variabel global 0.16.1
lem 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 Grafik 4.2.2 grDevices 4.2.2
kisi 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 topi keras 1.2.0 tempat aman 2.5.1
lebih tinggi 0,9 HMS 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
Id 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Pengiterasi 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1.40
Pelabelan 0.4.2 nanti 1.3.0 rangka 0.20-45
lahar 1.7.0 siklus hidup 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 Markdown 1.3
Massa 7.3-58.2 Matriks 1.5-1 memosankan 2.0.1
Metode 4.2.2 mgcv 1.8-41 pantomim 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv Agustus 2016 - Januari 2017 openssl 2.0.4 paralel 4.2.2
secara paralel 1.32.1 pilar 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 pujian 1.0.0
prettyunits 1.1.1 pROC 1.18.0 ProsesX 3.8.0
prodlim 2019.11.13 profvis 0.3.7 kemajuan 1.2.2
progresr 0.11.0 janji 1.2.0.1 Proto 1.0.0
proksi 0,4-27 P.S. 1.7.2 menggeram lembut 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest (algoritma pembelajaran mesin) 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
pembaca 2.1.3 readxl (membaca file Excel) 1.4.1 Resep 1.0.3
pertandingan ulang 1.0.1 pertandingan ulang 2 2.1.2 pengontrol jarak jauh 2.4.2
contoh replikasi 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.18 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.2 timbangan / sisik 1.2.1
selektor 0,4-2 informasi sesi 1.2.2 bentuk 1.4.6
mengkilap 1.7.3 sourcetools 0.1.7 sparklyr - paket R untuk analisis data dan pembelajaran mesin 1.7.8
SparkR 3.3.2 spasial 7.3-11 garis lengkung 4.2.2
sqldf 0,4-11 SQUAREM 2021.1 statistik 4.2.2
statistik4 4.2.2 string 1.7.8 stringr 1.4.1
bertahan hidup 3.4-0 Sistem 3.4.1 systemfonts 1.0.4
bahasa pemrograman Tcl/Tk 4.2.2 ujiitu 3.1.5 pembentukan teks 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 perubahan waktu 0.1.1 TanggalWaktu 4021.106
tinytex 0,42 perangkat 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 gunakan ini 2.1.6 utf8 1.2.2
Utilitas 4.2.2 UUID (Pengidentifikasi Unik Universal) 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 Vroom 1.6.0 Waldo 0.4.0
kumis 0,4 dengan 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 Zip 2.2.2

Pustaka Java dan Scala terinstal (versi kluster Scala 2.12)

ID Grup ID Artefak Versi
antlr antlr 2.7.7
com.amazonaws Klien Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws AWS Java SDK untuk CloudHSM 1.12.189
com.amazonaws aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config (konfigurasi SDK Java untuk AWS) 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-impor-ekspor 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws AWS-Java-SDK-Pembelajaran Mesin 1.12.189
com.amazonaws aws-java-sdk-opsworks (SDK Java untuk OpsWorks) 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) 1.12.189
com.amazonaws SDK Java untuk Storage Gateway AWS 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws AWS Java SDK Dukungan 1.12.189
com.amazonaws aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics aliran 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware bayangan-kriogenik 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml teman sekelas 1.3.4
com.fasterxml.jackson.core Jackson Annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype Jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine kafein 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib inti 1.1.2
com.github.fommil.netlib referensi_asli-java 1.1
com.github.fommil.netlib rujukan_asli-java-natives 1.1
com.github.fommil.netlib sistem_asli-java 1.1
com.github.fommil.netlib native_sistem-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava jambu biji 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger pembuat profil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi kode_sumber_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf (algoritma kompresi) 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning JSON 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfig 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
koleksi umum koleksi umum 3.2.2
commons-dbcp commons-dbcp 1.4
unggah berkas pada commons unggah berkas pada commons 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging (perpustakaan Java untuk fungsi pencatatan) commons-logging (perpustakaan Java untuk fungsi pencatatan) 1.1.3
kolam umum kolam umum 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Tidak peduli 2.2.1
dev.ludovic.netlib LAPACK 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor udara 0,21%
io.delta delta-sharing-spark_2.12 0.6.3
io.dropwizard.metrics inti metrik 4.1.1
io.dropwizard.metrics metrik-graphite 4.1.1
io.dropwizard.metrics pengukuran-pemeriksaan kesehatan 4.1.1
io.dropwizard.metrics metrik-jetty9 4.1.1
io.dropwizard.metrics metrik-jmx 4.1.1
io.dropwizard.metrics metrik-json 4.1.1
io.dropwizard.metrics metrik-jvm 4.1.1
io.dropwizard.metrics metrik-servlet 4.1.1
io.netty netty-all 4.1.74.Final
io.netty Netty Buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) 4.1.74.Final
io.netty kelas netty-tcnative 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll (kelas transportasi netty - epoll) 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_umum 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway (gateway pendorong sederhana) 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx pengumpul 0.12.0
jakarta.anotasi jakarta.anotasi-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivasi 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction Transaction-API 1.1
javax.xml.bind jaxb-api 2.2.11
Javolution Javolution 5.5.1
Jline Jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
jaring.bunga salju snowflake-ingest-sdk 0.9.6
jaring.bunga salju snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_gabungan_semua 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr StringTemplate 3.2.1
org.apache.ant semut 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format tanda panah 7.0.0
org.apache.arrow inti-memori-panah 7.0.0
org.apache.arrow Arrow-Memory-Netty 7.0.0
org.apache.arrow panah-vektor 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-koleksi4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons Commons-Math3 3.6.1
org.apache.commons commons-text (teks umum) 1.10.0
org.apache.curator kurator dan klien 2.13.0
org.apache.curator kerangka kerja kurator 2.13.0
org.apache.curator kurasi resep 2.13.0
org.apache.derby pertandingan derbi 10.14.2.0
org.apache.hadoop hadoop-klien-api 3.3.4-databricks
org.apache.hadoop lingkungan kerja klien Hadoop 3.3.4
org.apache.hive hive-beeline (antarmuka perintah untuk Apache Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API penyimpanan hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) 2.3.9
org.apache.hive.shims Pengatur Jadwal Hive Shims 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy tanaman anggur 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parquet-kolom 1.12.3-databricks-0002
org.apache.parquet parquet umum 1.12.3-databricks-0002
org.apache.parquet pengkodean parquet 1.12.3-databricks-0002
org.apache.parquet parquet-format-struktur 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus anotasi penonton 0.13.0
org.apache.zookeeper penjaga kebun binatang 3.6.2
org.apache.zookeeper penjaga kebun binatang-jute 3.6.2
org.checkerframework pemeriksa kualitas 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino Pengompilasi Umum 3.0.16
org.codehaus.janino Januari 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty lanjutan dermaga 9.4.46.v20220331
org.eclipse.jetty jetty-http (protokol HTTP untuk server Jetty) 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty Jetty Plus 9.4.46.v20220331
org.eclipse.jetty Jetty-Proxy 9.4.46.v20220331
org.eclipse.jetty keamanan jetty 9.4.46.v20220331
org.eclipse.jetty Jetty Server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Aplikasi web Jetty 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-API 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-klien 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-pemindai lokasi 2.6.1
org.glassfish.hk2 hk2-utilitas 2.6.1
org.glassfish.hk2 osgi-penanda-sumber-daya 1.0.3
org.glassfish.hk2.external aopalliance (dikemas ulang) 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-inti 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey biasa 2.36
org.glassfish.jersey.core Jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator Hibernate Validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotasi 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client (klien Java untuk MariaDB) 2.7.4
org.mlflow mlflow-spark 2.1.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap pengganjal 0.9.25
org.rocksdb rocksdbjni 6.28.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt antarmuka pengujian 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark tidak digunakan 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel makro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1