Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Catatan
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan dan akhir masa pakai. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 12.2 LTS, didukung oleh Apache Spark 3.3.2.
Versi ini menggabungkan semua fitur, peningkatan, dan perbaikan bug dari semua rilis Databricks Runtime sebelumnya. Databricks merilis versi ini pada bulan Maret 2023.
Perubahan perilaku
[Perubahan menerobos] Versi Python baru memerlukan pembaruan klien Python Databricks Connect V1
Catatan
Pembaruan berikutnya memindahkan versi Python di Databricks Runtime 12.2 LTS ke 3.9.21. Versi 3.9.21 tidak memperkenalkan perubahan perilaku apa pun.
Untuk menerapkan patch keamanan yang diperlukan, versi Python di Databricks Runtime 12.2 LTS ditingkatkan dari 3.9.5 ke 3.9.19. Karena perubahan ini dapat menyebabkan kesalahan pada klien yang menggunakan fungsi PySpark tertentu, klien apa pun yang menggunakan Databricks Connect V1 untuk Python dengan Databricks Runtime 12.2 LTS harus diperbarui ke Python 3.9.7 atau yang lebih baru.
Fitur dan peningkatan baru
- Python ditingkatkan dari 3.9.19 ke 3.9.21
- Evolusi skema Delta Lake mendukung penentuan kolom sumber dalam pernyataan penggabungan
- Beban kerja Streaming Terstruktur didukung pada kluster dengan mode akses bersama
- Fitur baru untuk I/O Prediktif
- Dukungan alias kolom lateral implisit
- Fitur forEachBatch baru
- Opsi Koneksi Standar untuk Federasi Kueri
- Pustaka fungsi SQL yang diperluas untuk manajemen array
- Fungsi masker baru untuk menganonimkan string
- Kondisi kesalahan umum sekarang menghasilkan SQLSTATEs
- Memanggil fungsi generator dalam klausa FROM
- Dukungan untuk buffer protokol umumnya tersedia
- Navigasi ke definisi untuk variabel dan fungsi notebook
- Perbaikan cepat notebook untuk mengimpor pustaka secara otomatis
- Perbaikan bug
Python ditingkatkan dari 3.9.19 ke 3.9.21
Versi Python di Databricks Runtime 12.2 LTS diperbarui dari 3.9.19 ke 3.9.21.
Evolusi skema Delta Lake mendukung penentuan kolom sumber dalam pernyataan penggabungan
Anda sekarang dapat menentukan kolom yang hanya ada di tabel sumber dalam tindakan sisipkan atau perbarui untuk pernyataan penggabungan saat evolusi skema diaktifkan. Dalam Databricks Runtime 12.1 ke bawah, tindakan INSERT * dan UPDATE SET * dapat digunakan hanya untuk evolusi skema dengan penggabungan. Lihat Evolusi skema otomatis untuk penggabungan.
Beban kerja Streaming Terstruktur didukung pada kluster dengan mode akses bersama
Anda sekarang dapat menggunakan Streaming Terstruktur untuk berinteraksi dengan Unity Catalog pada komputasi dengan mode akses standar. Beberapa batasan berlaku. Lihat Fungsionalitas Streaming Terstruktur apa yang didukung Oleh Katalog Unity?.
Fitur baru untuk I/O Prediktif
Dukungan foton untuk Foreachbatch sink sekarang tersedia. Beban kerja yang mengalir dari sumber dan bergabung ke Tabel Delta atau menulis ke beberapa sink sekarang dapat menguntungkan dari sink yang telah difotonisasi Foreachbatch.
Dukungan untuk pengaliasan kolom lateral secara implisit
Azure Databricks sekarang mendukung alias kolom lateral implisit secara default. Sekarang Anda dapat menggunakan kembali ekspresi yang ditentukan sebelumnya dalam daftar yang sama SELECT . Misalnya, diberikan SELECT 1 AS a, a + 1 AS b, a di a + 1 dapat diselesaikan sebagai yang telah didefinisikan 1 AS a sebelumnya. Periksa Resolusi nama untuk detail selengkapnya dalam urutan resolusi.
Untuk menonaktifkan fitur ini, Anda dapat mengatur spark.sql.lateralColumnAlias.enableImplicitResolution ke false.
Fitur forEachBatch baru
Photon sekarang didukung saat menggunakan foreachBatch untuk menulis ke sink data.
Opsi Koneksi Standar untuk Federasi Kueri
Anda sekarang dapat menggunakan sekumpulan opsi terpadu (host, port, database, pengguna, kata sandi)untuk menyambungkan ke sumber data yang didukung di Federasi Kueri.
Port bersifat opsional dan menggunakan nomor port default untuk setiap sumber data, kecuali ditentukan.
Pustaka fungsi SQL yang diperluas untuk manajemen array
Anda sekarang dapat menghapus semua elemen NULL dari array menggunakan array_compact. Untuk menambahkan elemen ke array, gunakan array_append.
Fungsi masker baru untuk menganonimkan string
Panggil fungsi mask untuk menganonimkan nilai string sensitif.
Kondisi kesalahan umum sekarang mengembalikan SQLSTATEs
Sebagian besar kondisi kesalahan di Databricks Runtime sekarang menyertakan nilai SQLSTATE yang telah didokumentasikan
Memanggil fungsi generator dalam klausa FROM
Anda sekarang dapat memanggil fungsi generator bernilai tabel seperti explode di dalam klausa biasa dari sebuah kueri FROM. Ini menyelaraskan pemanggilan fungsi generator dengan fungsi tabel bawaan dan yang ditentukan pengguna lainnya.
Dukungan untuk buffer protokol umumnya tersedia
Anda dapat menggunakan from_protobuf fungsi dan to_protobuf untuk bertukar data antara jenis biner dan struct. Lihat Buffer protokol baca dan tulis.
Fitur "Go-to-definition" untuk variabel dan fungsi dalam buku catatan
Di notebook, Anda dapat dengan cepat masuk ke definisi variabel, fungsi, atau kode di balik %run pernyataan dengan mengklik kanan variabel atau nama fungsi.
Perbaikan cepat Notebook untuk mengimpor pustaka secara otomatis
Notebook Databricks sekarang menawarkan fitur perbaikan cepat untuk mengimpor pustaka secara otomatis. Jika Anda lupa mengimpor pustaka seperti pandas, arahkan mouse ke peringatan sintaks bergaris bawah, lalu klik Perbaikan Cepat. Fitur ini memerlukan Asisten Databricks diaktifkan di Ruang Kerja Anda.
Perbaikan bug
- Peningkatan konsistensi untuk perilaku penerapan Delta pada transaksi kosong yang berkaitan dengan perintah
update,delete, danmerge. Dalam tingkat isolasiWriteSerializable, perintah yang tidak menghasilkan perubahan sekarang membuat commit kosong. Pada tingkat isolasiSerializable, transaksi kosong tersebut sekarang tidak membuat commit.
Perubahan perilaku
Perubahan perilaku pada fitur alias untuk kolom lateral yang baru
Fitur alias kolom lateral baru memperkenalkan perubahan perilaku untuk kasus berikut selama resolusi nama:
- Alias kolom lateral sekarang lebih diutamakan daripada referensi terkoordinasi dengan nama yang sama. Misalnya, untuk kueri
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)ini, di dalamc1,c1 AS c2diselesaikan menjadi referensit.c1berkorelasi, tetapi sekarang berubah menjadi alias kolom lateral1 AS c1. Kueri sekarang mengembalikanNULL. - Alias kolom lateral sekarang lebih diutamakan daripada parameter fungsi dengan nama yang sama. Misalnya, untuk fungsi
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x,xdalam isi fungsi diselesaikan menjadi parameter fungsi x, tetapi berubah menjadi alias kolom lateralx + 1dalam isi fungsi. Kueri,SELECT * FROM func(1)sekarang mengembalikan2, 2. - Untuk menonaktifkan fitur alias kolom lateral, atur
spark.sql.lateralColumnAlias.enableImplicitResolutionkefalse. Untuk informasi selengkapnya, lihat Resolusi nama.
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- filelock dari 3.8.2 hingga 3.9.0
- joblib dari 1.1.0 hingga 1.1.1
- platformdirs dari 2.6.0 hingga 2.6.2
- whatthepatch dari 1.0.3 hingga 1.0.4
- Pustaka R yang ditingkatkan:
- kelas dari 7,3-20 hingga 7,3-21
- codetools dari 0.2-18 ke 0.2-19
- MASSA dari 7.3-58 ke 7.3-58.2
- nlme dari 3,1-160 ke 3,1-162
- Rserve dari 1,8-11 ke 1,8-12
- SparkR dari 3.3.1 ke 3.3.2
Perubahan perilaku
- Pengguna sekarang diharuskan memiliki
SELECThak istimewa danMODIFYpada file apa pun saat membuat skema dengan lokasi yang ditentukan.
Apache Spark
Databricks Runtime 12.2 menyertakan Apache Spark 3.3.2. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam versi sebelumnya, serta yang berikut ini:
- [SPARK-42416] [SC-123205][sc-122851][SQL] Operasi set tanggal tidak boleh menyelesaikan rencana logis yang dianalisis lagi
- [SPARK-41848] Kembalikan "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Memperbaiki tugas yang dijadwalkan berlebihan dengan TaskResourceProfile"
- [SPARK-42162] [SC-122711][es-556261] Memperkenalkan ekspresi MultiCommutativeOp sebagai pengoptimalan memori untuk kanonisisasi pohon besar ekspresi komutatif
- [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Perbaiki pengaturan kedalaman rekursif untuk fungsi Protobuf
- [SPARK-42002] [SC-122476][connect][PYTHON] Implementasikan DataFrameWriterV2
- [SPARK-41716] [SC-122545][connect] Ganti nama _catalog_to_pandas menjadi _execute_and_fetch di Katalog
- [SPARK-41490] [SC-121774][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Implementasi Catalog.cacheTable, isCached, dan uncache
- [SPARK-42191] [SC-121990][sql] Dukungan udf 'luhn_check'
- [SPARK-42253] [SC-121976][python] Tambahkan pengujian untuk mendeteksi kelas kesalahan duplikat
- [SPARK-42268] [SC-122251][connect][PYTHON] Tambahkan UserDefinedType dalam protos
-
[SPARK-42231] [SC-121841][sql] Berubah
MISSING_STATIC_PARTITION_COLUMNmenjadiinternalError - [SPARK-42136] [SC-122554] Pemfaktoran ulang perhitungan partisi output BroadcastHashJoinExec
-
[SPARK-42158] [SC-121610][sql] Integrasikan
_LEGACY_ERROR_TEMP_1003ke dalamFIELD_NOT_FOUND - [SPARK-42192] [12.x][sc-121820][PYTHON] Migrasi TypeError dari pyspark/sql/dataframe.py ke PySparkTypeError
- [SPARK-35240] Kembalikan "[SC-118242][ss] Gunakan CheckpointFileManager ...
- [SPARK-41488] [SC-121858][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1176 (dan 1177)
-
[SPARK-42232] [SC-122267][sql] Ganti nama kelas kesalahan:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION - [SPARK-42346] [SC-122480][sql] Menulis ulang agregat distinct setelah penggabungan subkueri
-
[SPARK-42306] [SC-122539][sql] Integrasikan
_LEGACY_ERROR_TEMP_1317ke dalamUNRESOLVED_COLUMN.WITH_SUGGESTION -
[SPARK-42234] [SC-122354][sql] Ganti nama kelas kesalahan:
UNSUPPORTED_FEATURE.REPEATED_PIVOT -
[SPARK-42343] [SC-122437][core] Abaikan
IOExceptiondalamhandleBlockRemovalFailurejika SparkContext dihentikan - [SPARK-41295] [SC-122442][spark-41296][SQL] Ganti nama kelas kesalahan
- [SPARK-42320] [SC-122478][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][connect] SparkConnectClient mendukung RetryPolicies sekarang
- [SPARK-38728] [SC-116723][sql] Uji kelas kesalahan: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Contoh mandiri dalam PySpark
- [SPARK-39347] [SC-122457][ss] Perbaikan bug untuk perhitungan jendela waktu ketika waktu kejadian < kurang dari 0
-
[SPARK-42336] [SC-122458][core] Gunakan
getOrElse()alih-alihcontains()di ResourceAllocator - [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF pada Spark Connect
- [SPARK-42217] [SC-122263][sql] Mendukung alias kolom lateral implisit dalam kueri dengan Window
- [SPARK-35240] [SC-118242][ss] Gunakan CheckpointFileManager untuk manipulasi file titik pemeriksaan
- [SPARK-42294] [SC-122337][sql] Sertakan nilai default kolom dalam output DESCRIBE untuk tabel V2
- [SPARK-41979] Kembalikan "Kembalikan "[12.x][sc-121190][SQL] Tambahkan titik yang hilang untuk pesan kesalahan di kelas kesalahan.""
- [SPARK-42286] [SC-122336][sql] Fallback ke jalur kode codegen sebelumnya untuk expr kompleks dengan CAST
- [SPARK-42275] [SC-122249][connect][PYTHON] Hindari menggunakan daftar bawaan, dict dalam pengetikan statis
- [SPARK-41985] [SC-122172][sql] Memusatkan lebih banyak aturan resolusi kolom
- [SPARK-42126] [SC-122330][python][CONNECT] Terima jenis pengembalian dalam string DDL untuk Python UDF Skalar di Spark Connect
- [SPARK-42197] [SC-122328][sc-121514][CONNECT] Memanfaatkan kembali inisialisasi JVM, serta memisahkan grup konfigurasi untuk diatur dalam mode lokal jarak jauh
- [SPARK-41575] [SC-120118][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Kembalikan "[SC-122172][sql] Pusatkan lebih banyak aturan resolusi kolom"
- [SPARK-42123] [SC-122234][sc-121453][SQL] Sertakan nilai default kolom dalam DESCRIBE dan SHOW CREATE TABLE output
- [SPARK-41985] [SC-122172][sql] Memusatkan lebih banyak aturan resolusi kolom
- [SPARK-42284] [SC-122233][connect] Pastikan rakitan server koneksi dibangun sebelum menjalankan pengujian klien - SBT
-
[SPARK-42239] [SC-121790][sql] Integrasi
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY -
[SPARK-42278] [SC-122170][sql] DS V2 pushdown mendukung dialek JDBC yang dikompilasi
SortOrdersendiri - [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics seharusnya menangani Python UDAF
- [SPARK-41979] Batalkan “[12.x][sc-121190][SQL] Tambahkan titik yang hilang untuk pesan kesalahan di kelas kesalahan.”
- [SPARK-42224] [12.x][sc-121708][CONNECT] Memigrasikan TypeError ke dalam kerangka kerja kesalahan untuk fungsi Spark Connect
- [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Memigrasikan kesalahan Spark Connect ke dalam kerangka kerja kesalahan PySpark.
- [SPARK-42119] [SC-121913][sc-121342][SQL] Tambahkan fungsi bernilai tabel bawaan sebaris dan inline_outer
- [SPARK-41489] [SC-121713][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Memperkenalkan PySparkValueError dan PySparkTypeError
- [SPARK-42081] [SC-121723][sql] Meningkatkan validasi perubahan rencana
- [SPARK-42225] [12.x][sc-121714][CONNECT] Tambahkan SparkConnectIllegalArgumentException untuk menangani kesalahan Spark Connect dengan tepat.
-
[SPARK-42044] [12.x][sc-121280][SQL] Perbaiki pesan kesalahan yang salah untuk
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY - [SPARK-42194] [12.x][sc-121712][PS] Izinkan parameter kolom saat membuat DataFrame dengan Seri.
- [SPARK-42078] [12.x][sc-120761][PYTHON] Memigrasikan kesalahan yang dilemparkan oleh JVM ke PySparkException.
- [SPARK-42133] [12.x][sc-121250] Tambahkan metode API Himpunan Data dasar ke Klien SparkConnect Scala
- [SPARK-41979] [12.x][sc-121190][SQL] Tambahkan titik yang hilang untuk pesan kesalahan di kelas kesalahan.
- [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Scalar Inline Python UDF dalam Spark Connect
- [SPARK-42051] [SC-121994][sql] Dukungan Codegen untuk HiveGenericUDF
- [SPARK-42257] [SC-121948][core] Hapus pengurut eksternal variabel yang tidak digunakan
- [SPARK-41735] [SC-121771][sql] Gunakan MINIMAL alih-alih STANDAR untuk SparkListenerSQLExecutionEnd
-
[SPARK-42236] [SC-121882][sql] Refine
NULLABLE_ARRAY_OR_MAP_ELEMENT -
[SPARK-42233] [SC-121775][sql] Meningkatkan pesan kesalahan untuk
PIVOT_AFTER_GROUP_BY -
[SPARK-42229] [SC-121856][core] Bermigrasi
SparkCoreErrorske kelas kesalahan - [SPARK-42163] [SC-121839][sql] Perbaiki pemangkasan skema untuk indeks array yang tidak dapat dilipat atau kunci peta
- [SPARK-40711] [SC-119990][sql] Tambahkan metrik ukuran tumpahan untuk jendela
-
[SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Membuat
createDataFramemendukung pemaksaanAtomicType -> StringType - [SPARK-42202] [SC-121837][connect][Test] Meningkatkan logika penghentian server uji E2E
- [SPARK-41167] [SC-117425][sql] Tingkatkan performa multi like dengan membuat predikat pohon ekspresi seimbang
- [SPARK-41931] [SC-121618][sql] Pesan kesalahan yang lebih baik untuk definisi jenis kompleks yang tidak lengkap
- [SPARK-36124] [SC-121339][sc-110446][SQL] Mendukung subkueri dengan korelasi melalui UNION
- [SPARK-42090] [SC-121290][3.3] Menambahkan jumlah uji ulang sasl di RetryingBlockTransferor
-
[SPARK-42157] [SC-121264][core]
spark.scheduler.mode=FAIRsebaiknya menyediakan penjadwal FAIR - [SPARK-41572] [SC-120772][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2149
-
[SPARK-41983] [SC-121224][sql] Ganti nama & tingkatkan pesan kesalahan untuk
NULL_COMPARISON_RESULT -
[SPARK-41976] [SC-121024][sql] Meningkatkan pesan kesalahan untuk
INDEX_NOT_FOUND - [SPARK-41994] [SC-121210][sc-120573] Tetapkan SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Percobaan Ulang Permintaan SASL
- [SPARK-38591] [SC-121018][sql] Tambahkan flatMapSortedGroups dan cogroupSorted
-
[SPARK-41975] [SC-120767][sql] Meningkatkan pesan kesalahan untuk
INDEX_ALREADY_EXISTS - [SPARK-42056] [SC-121158][sql][PROTOBUF] Tambahkan opsi yang hilang untuk fungsi Protobuf
-
[SPARK-41984] [SC-120769][sql] Ganti nama & tingkatkan pesan kesalahan untuk
RESET_PERMISSION_TO_ORIGINAL - [SPARK-41948] [SC-121196][sql] Perbaiki NPE untuk kelas kesalahan: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][connect][PYTHON] Perbaiki nama kolom yang salah di
withField's doctest -
[SPARK-41283] [SC-121175][connect][PYTHON] Tambahkan
array_appendke Connect - [SPARK-41960] [SC-120773][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][sql] Perbaiki getPartitionFiltersAndDataFilters() untuk menangani filter tanpa atribut yang dirujuk
-
[SPARK-42096] [SC-121012][connect] Beberapa pembersihan kode untuk
connectmodul -
[SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Memperbaiki
count(*)dancount(col(*)) - [SPARK-42045] [SC-120958][sc-120450][SQL] mode ANSI SQL: Round/Bround harus mengembalikan kesalahan pada luapan bilangan bulat
- [SPARK-42043] [SC-120968][connect] Hasil Klien Scala dengan Pengujian E2E
- [SPARK-41884] [SC-121022][connect] Dukungan tuple naif sebagai baris berlapis
-
[SPARK-42112] [SC-121011][sql][SS] Tambahkan pemeriksaan null sebelum
ContinuousWriteRDD#computefungsi ditutupdataWriter - [SPARK-42077] [SC-120553][connect][PYTHON] Literal harus melempar TypeError untuk DataType yang tidak didukung
-
[SPARK-42108] [SC-120898][sql] Membuat Analyzer berubah
Count(*)menjadiCount(1) -
[SPARK-41666] [SC-120928][sc-119009][PYTHON] Mendukung SQL berparameter oleh
sql() - [SPARK-40599] [SC-120930][sql] Melonggarkan jenis aturan multiTransform untuk mengizinkan alternatif berupa beragam Seq
-
[SPARK-41574] [SC-120771][sql] Perbarui
_LEGACY_ERROR_TEMP_2009sebagaiINTERNAL_ERROR. - [SPARK-41579] [SC-120770][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1249
-
[SPARK-41974] [SC-120766][sql] Berubah
INCORRECT_END_OFFSETmenjadiINTERNAL_ERROR - [SPARK-41530] [SC-120916][sc-118513][CORE] Mengganti Nama MedianHeap menjadi PercentileMap dan mendukung persentil
- [SPARK-41757] [SC-120608][spark-41901][CONNECT] Perbaiki representasi string untuk kelas Kolom
- [SPARK-42084] [SC-120775][sql] Hindari membocorkan pembatasan khusus akses yang memenuhi syarat
- [SPARK-41973] [SC-120765][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][sql] SPJ: Hapus Opsi di KeyGroupedPartitioning#partitionValuesOpt
-
[SPARK-42079] [SC-120712][connect][PYTHON] Ganti nama pesan proto untuk
toDFdanwithColumnsRenamed - [SPARK-42089] [SC-120605][connect][PYTHON] Perbaiki masalah nama variabel dalam fungsi lambda berlapis
- [SPARK-41982] [SC-120604][sql] Partisi jenis string tidak boleh diperlakukan sebagai jenis numerik
- [SPARK-40599] [SC-120620][sql] Tambahkan metode multiTransform ke TreeNode untuk menghasilkan alternatif
-
[SPARK-42085] [SC-120556][connect][PYTHON] Buat
from_arrow_schemadukungan tipe berlapis - [SPARK-42057] [SC-120507][sql][PROTOBUF] Perbaiki bagaimana pengecualian ditangani dalam pelaporan kesalahan.
-
[SPARK-41586] [12.x][all tests][SC-120544][python] Memperkenalkan
pyspark.errorsdan kelas kesalahan untuk PySpark. -
[SPARK-41903] [SC-120543][connect][PYTHON]
Literalharus mendukung ndarray 1-dim -
[SPARK-42021] [SC-120584][connect][PYTHON] Mengaktifkan
createDataFramedukunganarray.array - [SPARK-41896] [SC-120506][sql] Pemfilteran menurut indeks baris mengembalikan hasil kosong
- [SPARK-41162] [SC-119742][sql] Perbaiki anti- dan semi-join untuk penggabungan diri dengan agregasi
- [SPARK-41961] [SC-120501][sql] Mendukung fungsi bernilai tabel dengan LATERAL
- [SPARK-41752] [SC-120550][sql][UI] Mengelompokkan eksekusi berlapis di bawah eksekusi root
- [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literal harus mendukung jenis data Numpy
- [SPARK-42028] [SC-120344][connect][PYTHON] Memotong tanda waktu nanodetikl
- [SPARK-42011] [SC-120534][connect][PYTHON] Mengimplementasikan DataFrameReader.csv
-
[SPARK-41990] [SC-120532][sql] Gunakan
FieldReference.columnalih-alihapplydalam konversi filter V1 ke V2 - [SPARK-39217] [SC-120446][sql] Membuat DPP mendukung sisi pemangkasan memiliki Union
-
[SPARK-42076] [SC-120551][connect][PYTHON] Memisahkan proses konversi data
arrow -> rowskeconversion.py -
[SPARK-42074] [SC-120540][sql] Memungkinkan
KryoSerializerdiTPCDSQueryBenchmarkuntuk menerapkan pendaftaran kelas SQL - [SPARK-42012] [SC-120517][connect][PYTHON] Laksanakan fungsi DataFrameReader.orc
-
[SPARK-41832] [SC-120513][connect][PYTHON] Perbaiki
DataFrame.unionByName, tambahkan allow_missing_columns -
[SPARK-38651] [SC-120514] [SQL] Tambah
spark.sql.legacy.allowEmptySchemaWrite -
[SPARK-41991] [SC-120406][sql]
CheckOverflowInTableInsertharus menerima ExpressionProxy sebagai anak - [SPARK-41232] [SC-120073][sql][PYTHON] Menambahkan fungsi array_append
- [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader harus mendukung daftar jalur
-
[SPARK-42071] [SC-120533][core] Daftar
scala.math.Ordering$Reverseke KyroSerializer - [SPARK-41986] [SC-120429][sql] Memperkenalkan shuffle pada SinglePartition
- [SPARK-42016] [SC-120428][connect][PYTHON] Aktifkan pengujian yang terkait dengan kolom berlapis
-
[SPARK-42042] [SC-120427][connect][PYTHON]
DataFrameReaderharus mendukung skema StructType - [SPARK-42031] [SC-120389][core][SQL] Bersihkan metode yang tidak perlu di-override
-
[SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Membuat
createDataFrame(rows/lists/tuples/dicts)dukungan jenis berlapis - [SPARK-41437] [SC-117601][sql][ALL TESTS] Jangan optimalkan kueri input dua kali untuk fallback penulisan v1
-
[SPARK-41840] [SC-119719][connect][PYTHON] Tambahkan alias yang hilang
groupby - [SPARK-41846] [SC-119717][connect][PYTHON] Mengaktifkan doctest untuk fungsi jendela
- [SPARK-41914] [SC-120094][sql] FileFormatWriter mewujudkan rencana AQE sebelum mengakses outputOrdering
- [SPARK-41805] [SC-119992][sql] Gunakan kembali ekspresi di WindowSpecDefinition
- [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range untuk menerima float sebagai argumen
-
[SPARK-42029] [SC-120336][connect] Tambahkan aturan Guava Shading untuk
connect-commonmenghindari kegagalan startup - [SPARK-41989] [SC-120334][python] Hindari melanggar konfigurasi pengelogan dari pyspark.pandas
- [SPARK-42003] [SC-120331][sql] Kurangi kode duplikat di ResolveGroupByAll
- [SPARK-41635] [SC-120313][sql] Perbaiki grup dengan semua pelaporan kesalahan
- [SPARK-41047] [SC-120291][sql] Tingkatkan dokumentasi untuk fungsi round
- [SPARK-41822] [SC-120122][connect] Menyiapkan koneksi gRPC untuk klien Scala/JVM
-
[SPARK-41879] [SC-120264][connect][PYTHON] Membuat
DataFrame.collectmendukung tipe bersarang -
[SPARK-41887] [SC-120268][connect][PYTHON] Membuat
DataFrame.hintmenerima parameter bertipe daftar - [SPARK-41964] [SC-120210][connect][PYTHON] Tambahkan daftar fungsi IO yang tidak didukung
- [SPARK-41595] [SC-120097][sql] Mendukung fungsi generator explode/explode_outer dalam klausul FROM
-
[SPARK-41957] [SC-120121][connect][PYTHON] Aktifkan pengujian dokumen untuk
DataFrame.hint -
[SPARK-41886] [SC-120141][connect][PYTHON]
DataFrame.intersectdoctest output memiliki urutan yang berbeda - [SPARK-41442] [SC-117795][sql][ALL TESTS] Hanya perbarui nilai SQLMetric jika menggabungkan dengan metrik yang valid
- [SPARK-41944] [SC-120046][connect] Meneruskan konfigurasi saat mode lokal jarak jauh aktif
-
[SPARK-41708] [SC-119838][sql] Tarik informasi v1write ke
WriteFiles -
[SPARK-41780] [SC-120000][sql] Sebaiknya lempar INVALID_PARAMETER_VALUE.PATTERN ketika parameter
regexptidak valid [SPARK-41889] [SC-119975][sql] Lampirkan penyebab utama ke invalidPatternError & lakukan refaktor kelas kesalahan INVALID_PARAMETER_VALUE- [SPARK-41860] [SC-120028][sql] Membuat kelas kasus AvroScanBuilder dan JsonScanBuilder
- [SPARK-41945] [SC-120010][connect][PYTHON] Python: menghubungkan data kolom klien yang hilang dengan pyarrow. Table.to_pylist
- [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Pengkode Agnostik
- [SPARK-41354] [SC-119995][connect][PYTHON] Mengimplementasikan RepartitionByExpression
-
[SPARK-41581] [SC-119997][sql] Perbarui
_LEGACY_ERROR_TEMP_1230sebagaiINTERNAL_ERROR -
[SPARK-41928] [SC-119972][connect][PYTHON] Tambahkan daftar yang tidak didukung untuk
functions - [SPARK-41933] [SC-119980][connect] Sediakan mode lokal yang secara otomatis memulai server
- [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame' harus menghormati skema DDL yang disediakan pengguna
-
[SPARK-41936] [SC-119978][connect][PYTHON] Buat
withMetadatapenggunaanwithColumnskembali proto - [SPARK-41898] [SC-119931][connect][PYTHON] Window.rowsBetween, Window.rangeBetween pemeriksaan tipe parameter kesetaraan dengan pyspark
-
[SPARK-41939] [SC-119977][connect][PYTHON] Tambahkan daftar yang tidak didukung untuk
catalogfungsi -
[SPARK-41924] [SC-119946][koneksi][PYTHON] Buat StructType mendukung metadata dan Implementasi
DataFrame.withMetadata -
[SPARK-41934] [SC-119967][connect][PYTHON] Tambahkan daftar fungsi yang tidak didukung untuk
session -
[SPARK-41875] [SC-119969][connect][PYTHON] Tambahkan kasus pengujian untuk
Dataset.to() - [SPARK-41824] [SC-119970][connect][PYTHON] Abaikan doctest untuk penjelasan dari connect
-
[SPARK-41880] [SC-119959][connect][PYTHON] Buat fungsi
from_jsonmenerima skema non-literal -
[SPARK-41927] [SC-119952][connect][PYTHON] Tambahkan daftar yang tidak didukung untuk
GroupedData -
[SPARK-41929] [SC-119949][connect][PYTHON] Tambahkan fungsi
array_compact -
[SPARK-41827] [SC-119841][connect][PYTHON] Membuat
GroupBymenerima daftar kolom -
[SPARK-41925] [SC-119905][sql] Aktifkan
spark.sql.orc.enableNestedColumnVectorizedReadersecara default -
[SPARK-41831] [SC-119853][connect][PYTHON] Membuat
DataFrame.selectmenerima daftar kolom -
[SPARK-41455] [SC-119858][connect][PYTHON] Buat
DataFrame.collectbuang info zona waktu -
[SPARK-41923] [SC-119861][connect][PYTHON] Tambahkan
DataFrame.writeToke daftar yang tidak didukung - [SPARK-41912] [SC-119837][sql] Subkueri tidak boleh memvalidasi CTE
- [SPARK-41828] [SC-119832][connect][PYTHON][12.x] Menyediakan dukungan untuk dataframe kosong
- [SPARK-41905] [SC-119848][connect] Dukungan nama sebagai string dalam potongan
- [SPARK-41869] [SC-119845][connect] Menolak string tunggal dalam dropDuplicates
-
[SPARK-41830] [SC-119840][connect][PYTHON] Buat
DataFrame.samplemenerima parameter yang sama dengan PySpark - [SPARK-41849] [SC-119835][koneksi] Menerapkan DataFrameReader.text
- [SPARK-41861] [SC-119834][sql] Buat v2 ScanBuilders' build() mengembalikan pemindaian yang diketik
-
[SPARK-41825] [SC-119710][connect][PYTHON] Aktifkan doctest terkait dengan
DataFrame.show -
[SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Buat
createDataFramepenanganan None/NaN dengan benar -
[SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Buat
DataFrame.collectmenangani None/NaN/Array/Binary dengan benar - [SPARK-39318] [SC-119713][sql] Hapus tpch-plan-stability WithStats golden files
- [SPARK-41791] [SC-119745] Menambahkan jenis kolom metadata sumber file baru
- [SPARK-41790] [SC-119729][sql] Atur format pembaca TRANSFORM dan penulis dengan benar
-
[SPARK-41829] [SC-119725][connect][PYTHON] Tambahkan parameter pemesanan yang hilang di
SortdansortWithinPartitions - [SPARK-41576] [SC-119718][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][connect][PYTHON] Memperbaiki uji dokumentasi untuk DataFrame.describe
- [SPARK-41871] [SC-119714][connect] Parameter petunjuk DataFrame dapat berupa str, float atau int
- [SPARK-41720] [SC-119076][sql] Ganti Nama UnresolvedFunc menjadi UnresolvedFunctionName
- [SPARK-41573] [SC-119567][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][sql] Memperbaiki bug kebenaran yang terkait dengan nilai DEFAULT di pembaca Orc
-
[SPARK-41582] [SC-119482][sc-118701][CORE][sql] Gunakan
INVALID_TYPED_LITERALkembali alih-alih_LEGACY_ERROR_TEMP_0022
Pembaruan pemeliharaan
Lihat Pembaruan Pemeliharaan Databricks Runtime 12.2.
Lingkungan sistem
-
Sistem Operasi: Ubuntu 20.04.5 LTS
- Catatan: Ini adalah versi Ubuntu yang digunakan oleh kontainer Databricks Runtime. Kontainer Databricks Runtime berjalan pada komputer virtual penyedia cloud, yang mungkin menggunakan versi Ubuntu atau distribusi Linux yang berbeda.
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.21
- R: 4.2.2
- Danau Delta: 2.2.0
Perpustakaan Python terinstal
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| argon2-cffi | 21.3.0 | Pengikatan Argon2-cffi | 21.2.0 | asttoken | 2.0.5 |
| atribut | 21.4.0 | panggilan balik | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
| beautifulsoup4 | 4.11.1 | hitam | 22.3.0 | pemutih | 4.1.0 |
| boto3 | 1.21.32 | botocore | 1.24.32 | sertifikat | 2021.10.8 |
| cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| klik | 8.0.4 | Kriptografi | 3.4.8 | pengendara sepeda | 0.11.0 |
| Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
| penghias | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
| konversi docstring ke markdown | 0.11 | titik masuk | 0,4 | menjalankan | 0.8.3 |
| gambaran umum aspek | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
| alat pengelola font | 4.25.0 | IDNA | 3.3 | ipykernel | 6.15.3 |
| ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client (klien Jupyter) | 6.1.12 |
| jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
| matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | penyetelan salah | 0.8.4 |
| ekstensi mypy | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| buku catatan | 6.4.8 | numpy (perpustakaan Python untuk operasi numerik) | 1.21.5 | pengemasan | 21.3 |
| Panda | 1.4.2 | Pandocfilters | 1.5.0 | pengurai | 0.8.3 |
| spesifikasi jalur | 0.9.0 | kambing hitam | 0.5.2 | pexpect=4.8.0 | 4.8.0 |
| pickleshare | 0.7.5 | Bantal | 9.0.1 | pipa | 21.2.4 |
| platformdirs | 2.6.2 | plotly | 5.6.0 | pengaya | 1.0.0 |
| prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
| pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
| pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
| permintaan | 2.27.1 | requests-unixsocket | 0.2.0 | tali | 0.22.0 |
| s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy (perpustakaan Python untuk komputasi ilmiah) | 1.7.3 |
| Seaborn (perpustakaan Python untuk visualisasi data) | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
| Enam | 1.16.0 | alat penyaring sup | 2.3.1 | ssh-import-id | 5.10 |
| stack-data | 0.2.0 | statsmodels (paket Python untuk pemodelan statistik) | 0.13.2 | kegigihan | 8.0.1 |
| selesai | 0.13.1 | jalur uji | 0.5.0 | threadpoolctl | 2.2.0 |
| Tokenisasi-RT | 4.2.1 | tomli | 1.2.2 | Tornado | 6.1 |
| traitlets | 5.1.1 | ekstensi pengetikan (typing_extensions) | 4.1.1 | ujson | 5.1.0 |
| pembaruan otomatis tanpa pengawasan | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | webencodings=0.5.1 | 0.5.1 | apa itu patch | 1.0.4 |
| wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Perpustakaan R yang diinstal
Pustaka R diinstal dari cuplikan CRAN Microsoft pada 2022-11-11. Rekam jepret tidak lagi tersedia.
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| anak panah | 10.0.0 | askpass | 1.1 | pastikanbahwa | 0.2.1 |
| pemindahan fitur ke versi lama (backports) | 1.4.1 | dasar | 4.2.2 | base64enc | 0.1-3 |
| sedikit | 4.0.4 | bit-64 | 4.0.5 | blob | 1.2.3 |
| sepatu bot | 1.3-28 | menyeduh | 1,0-8 | Brio | 1.1.3 |
| sapu | 1.0.1 | bslib | 0.4.1 | cashmere | 1.0.6 |
| layanan panggilan | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
| kronogram | 2.3-58 | kelas | 7.3-21 | CLI | 3.4.1 |
| pemangkas | 0.8.0 | Jam | 0.6.1 | kluster | 2.1.4 |
| codetools | 0.2-19 | ruang warna | 2.0-3 | commonmark | 1.8.1 |
| pengkompilasi | 4.2.2 | konfig | 0.3.1 | cpp11 | 0.4.3 |
| kriyon | 1.5.2 | kredensial | 1.3.2 | melengkung | 4.3.3 |
| data.table (sebuah paket untuk pengolahan data table) | 1.14.4 | kumpulan data | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.2.1 | deskripsi | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | digest | 0.6.30 | pencahayaan turun | 0.4.2 |
| dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
| elipsis | 0.3.2 | menilai | 0,18 | penggemar | 1.0.3 |
| warna-warna | 2.1.1 | pemetaan cepat | 1.1.0 | fontawesome | 0.4.0 |
| untuk kucing | 0.5.2 | foreach (pengulangan untuk setiap elemen) | 1.5.2 | asing | 0.8-82 |
| bengkel pandai besi | 0.2.0 | fs | 1.5.2 | masa depan | 1.29.0 |
| menerapkan di masa depan | 1.10.0 | kumur | 1.2.1 | obat generik | 0.1.3 |
| Gert | 1.9.1 | ggplot2 | 3.4.0 | GH | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-4 | variabel global | 0.16.1 |
| lem | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.0 | Grafik | 4.2.2 | grDevices | 4.2.2 |
| kisi | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | topi keras | 1.2.0 | tempat aman | 2.5.1 |
| lebih tinggi | 0,9 | HMS | 1.1.2 | htmltools | 0.5.3 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
| Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.6 | Pengiterasi | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
| Pelabelan | 0.4.2 | nanti | 1.3.0 | rangka | 0.20-45 |
| lahar | 1.7.0 | siklus hidup | 1.0.3 | listenv | 0.8.0 |
| lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
| Massa | 7.3-58.2 | Matriks | 1.5-1 | memosankan | 2.0.1 |
| Metode | 4.2.2 | mgcv | 1.8-41 | pantomim | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | Agustus 2016 - Januari 2017 | openssl | 2.0.4 | paralel | 4.2.2 |
| secara paralel | 1.32.1 | pilar | 1.8.1 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
| plogr | 0.2.0 | plyr | 1.8.7 | pujian | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | ProsesX | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | kemajuan | 1.2.2 |
| progresr | 0.11.0 | janji | 1.2.0.1 | Proto | 1.0.0 |
| proksi | 0,4-27 | P.S. | 1.7.2 | menggeram lembut | 0.3.5 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
| randomForest (algoritma pembelajaran mesin) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| pembaca | 2.1.3 | readxl (membaca file Excel) | 1.4.1 | Resep | 1.0.3 |
| pertandingan ulang | 1.0.1 | pertandingan ulang 2 | 2.1.2 | pengontrol jarak jauh | 2.4.2 |
| contoh replikasi | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.2 | timbangan / sisik | 1.2.1 |
| selektor | 0,4-2 | informasi sesi | 1.2.2 | bentuk | 1.4.6 |
| mengkilap | 1.7.3 | sourcetools | 0.1.7 | sparklyr - paket R untuk analisis data dan pembelajaran mesin | 1.7.8 |
| SparkR | 3.3.2 | spasial | 7.3-11 | garis lengkung | 4.2.2 |
| sqldf | 0,4-11 | SQUAREM | 2021.1 | statistik | 4.2.2 |
| statistik4 | 4.2.2 | string | 1.7.8 | stringr | 1.4.1 |
| bertahan hidup | 3.4-0 | Sistem | 3.4.1 | systemfonts | 1.0.4 |
| bahasa pemrograman Tcl/Tk | 4.2.2 | ujiitu | 3.1.5 | pembentukan teks | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | perubahan waktu | 0.1.1 | TanggalWaktu | 4021.106 |
| tinytex | 0,42 | perangkat | 4.2.2 | tzdb | 0.3.0 |
| urlchecker | 1.0.1 | gunakan ini | 2.1.6 | utf8 | 1.2.2 |
| Utilitas | 4.2.2 | UUID (Pengidentifikasi Unik Universal) | 1.1-0 | vctrs | 0.5.0 |
| viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
| kumis | 0,4 | dengan | 2.5.0 | xfun | 0.34 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.6 | Zip | 2.2.2 |
Pustaka Java dan Scala terinstal (versi kluster Scala 2.12)
| ID Grup | ID Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klien Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | AWS Java SDK untuk CloudHSM | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (konfigurasi SDK Java untuk AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-impor-ekspor | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-Pembelajaran Mesin | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks (SDK Java untuk OpsWorks) | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) | 1.12.189 |
| com.amazonaws | SDK Java untuk Storage Gateway AWS | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | AWS Java SDK Dukungan | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | aliran | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | bayangan-kriogenik | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.3.4 |
| com.fasterxml.jackson.core | Jackson Annotations | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.caffeine | kafein | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | inti | 1.1.2 |
| com.github.fommil.netlib | referensi_asli-java | 1.1 |
| com.github.fommil.netlib | rujukan_asli-java-natives | 1.1 |
| com.github.fommil.netlib | sistem_asli-java | 1.1 |
| com.github.fommil.netlib | native_sistem-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | jambu biji | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | pembuat profil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | kode_sumber_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (algoritma kompresi) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| koleksi umum | koleksi umum | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| unggah berkas pada commons | unggah berkas pada commons | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (perpustakaan Java untuk fungsi pencatatan) | commons-logging (perpustakaan Java untuk fungsi pencatatan) | 1.1.3 |
| kolam umum | kolam umum | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Tidak peduli | 2.2.1 |
| dev.ludovic.netlib | LAPACK | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 0,21% |
| io.delta | delta-sharing-spark_2.12 | 0.6.3 |
| io.dropwizard.metrics | inti metrik | 4.1.1 |
| io.dropwizard.metrics | metrik-graphite | 4.1.1 |
| io.dropwizard.metrics | pengukuran-pemeriksaan kesehatan | 4.1.1 |
| io.dropwizard.metrics | metrik-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrik-jmx | 4.1.1 |
| io.dropwizard.metrics | metrik-json | 4.1.1 |
| io.dropwizard.metrics | metrik-jvm | 4.1.1 |
| io.dropwizard.metrics | metrik-servlet | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | Netty Buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) | 4.1.74.Final |
| io.netty | kelas netty-tcnative | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll (kelas transportasi netty - epoll) | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_umum | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway (gateway pendorong sederhana) | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | pengumpul | 0.12.0 |
| jakarta.anotasi | jakarta.anotasi-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | Transaction-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| jaring.bunga salju | snowflake-ingest-sdk | 0.9.6 |
| jaring.bunga salju | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_gabungan_semua | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | semut | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format tanda panah | 7.0.0 |
| org.apache.arrow | inti-memori-panah | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | panah-vektor | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-koleksi4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | Commons-Math3 | 3.6.1 |
| org.apache.commons | commons-text (teks umum) | 1.10.0 |
| org.apache.curator | kurator dan klien | 2.13.0 |
| org.apache.curator | kerangka kerja kurator | 2.13.0 |
| org.apache.curator | kurasi resep | 2.13.0 |
| org.apache.derby | pertandingan derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop-klien-api | 3.3.4-databricks |
| org.apache.hadoop | lingkungan kerja klien Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (antarmuka perintah untuk Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API penyimpanan hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) | 2.3.9 |
| org.apache.hive.shims | Pengatur Jadwal Hive Shims | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | tanaman anggur | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orc-shims | 1.7.6 |
| org.apache.parquet | parquet-kolom | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet umum | 1.12.3-databricks-0002 |
| org.apache.parquet | pengkodean parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-format-struktur | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | anotasi penonton | 0.13.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.6.2 |
| org.apache.zookeeper | penjaga kebun binatang-jute | 3.6.2 |
| org.checkerframework | pemeriksa kualitas | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Pengompilasi Umum | 3.0.16 |
| org.codehaus.janino | Januari | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | lanjutan dermaga | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http (protokol HTTP untuk server Jetty) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Plus | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | keamanan jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Server | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Aplikasi web Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-klien | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-pemindai lokasi | 2.6.1 |
| org.glassfish.hk2 | hk2-utilitas | 2.6.1 |
| org.glassfish.hk2 | osgi-penanda-sumber-daya | 1.0.3 |
| org.glassfish.hk2.external | aopalliance (dikemas ulang) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-inti | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | jersey biasa | 2.36 |
| org.glassfish.jersey.core | Jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | Hibernate Validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotasi | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client (klien Java untuk MariaDB) | 2.7.4 |
| org.mlflow | mlflow-spark | 2.1.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | pengganjal | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.28.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | antarmuka pengujian | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | tidak digunakan | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | makro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |