Databricks Runtime 12.1 (EoS)

Nota

Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan dan akhir masa pakai. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.

Catatan rilis berikut memberikan informasi tentang Databricks Runtime 12.1, didukung oleh Apache Spark 3.3.1.

Databricks merilis versi ini pada Januari 2023.

Fitur dan peningkatan baru

Fitur tabel Delta Lake yang didukung untuk manajemen protokol

Azure Databricks telah memperkenalkan dukungan untuk fitur tabel Delta Lake, yang memperkenalkan bendera granular yang menentukan fitur mana yang didukung oleh tabel tertentu. Lihat Kompatibilitas dan protokol fitur Delta Lake.

I/O prediktif untuk pembaruan sedang dalam pratinjau publik

I/O prediktif sekarang mempercepat operasi DELETE, MERGE, dan UPDATE untuk tabel Delta dengan vektor penghapusan yang diaktifkan pada komputasi bertenaga Photon. Lihat Apa itu I/O prediktif?.

Catalog Explorer sekarang tersedia untuk semua persona

Catalog Explorer sekarang tersedia untuk semua persona Azure Databricks saat menggunakan Databricks Runtime 7.3 LTS ke atas.

Dukungan untuk beberapa operator berstatus dalam satu kueri streaming

Pengguna sekarang dapat menghubungkan operator stateful dengan mode append dalam kueri streaming. Tidak semua operator didukung sepenuhnya. Gabung interval waktu stream-stream dan flatMapGroupsWithState tidak mengizinkan operator stateful lainnya untuk ditautkan.

Dukungan untuk protokol buffer ada di Pratinjau Umum

Anda dapat menggunakan from_protobuf fungsi dan to_protobuf untuk bertukar data antara jenis biner dan struct. Lihat Baca dan tulis protokol buffer.

Dukungan autentikasi untuk Confluent Schema Registry

Azure Databricks kini terintegrasi dengan Confluent Schema Registry dan kini mendukung alamat registri skema eksternal yang dilengkapi dengan autentikasi. Fitur ini tersedia untuk from_avro, to_avro, from_protobuf, dan to_protobuf fungsi. Lihat Protobuf atau Avro.

Dukungan untuk berbagi riwayat tabel dengan Delta Sharing

Sekarang Anda dapat menggunakan Berbagi Delta untuk berbagi tabel dengan riwayat lengkap, sehingga penerima dapat melakukan kueri lintas waktu dan mengakses tabel menggunakan Spark Structured Streaming. WITH HISTORY direkomendasikan alih-alih CHANGE DATA FEED, meskipun yang terakhir terus didukung. Lihat ALTER SHARE dan Tambahkan tabel ke bagikan.

Dukungan untuk streaming dengan Delta Sharing saham

Spark Structured Streaming sekarang berfungsi dengan format deltasharing pada tabel Delta Sharing sumber yang sudah dibagikan menggunakan WITH HISTORY.

Versi tabel yang menggunakan cap waktu sekarang sudah didukung untuk tabel Delta Sharing di dalam katalog.

Sekarang Anda dapat menggunakan sintaks TIMESTAMP AS OF SQL dalam SELECT pernyataan untuk menentukan versi tabel Berbagi Delta yang dipasang dalam katalog. Tabel harus dibagikan menggunakan WITH HISTORY.

Dukungan untuk "WHEN NOT MATCHED BY SOURCE" untuk MERGE INTO

Sekarang Anda dapat menambahkan WHEN NOT MATCHED BY SOURCE klausa untuk MERGE INTO memperbarui atau menghapus baris dalam tabel yang dipilih yang tidak memiliki kecocokan dalam tabel sumber berdasarkan kondisi penggabungan. Klausa baru tersedia di SQL, Python, Scala, dan Java. Lihat MERGE INTO.

Pengumpulan statistik yang dioptimalkan untuk CONVERT TO DELTA

Pengumpulan statistik untuk CONVERT TO DELTA operasi sekarang jauh lebih cepat. Ini mengurangi jumlah beban kerja yang mungkin digunakan NO STATISTICS untuk efisiensi.

Dukungan Unity Catalog untuk memulihkan tabel yang dihapus

Fitur ini awalnya dirilis di Pratinjau Umum. Ini sudah menjadi status GA sejak 25 Oktober 2023.

Anda sekarang dapat mengembalikan tabel terkelola atau eksternal yang telah dihapus dalam skema yang ada, dalam waktu tujuh hari setelah penghapusan. Lihat UNDROP dan SHOW TABLES DROPPED.

Peningkatan pustaka

  • Pustaka Python yang ditingkatkan:
    • filelock dari 3.8.0 hingga 3.8.2
    • platformdirs dari versi 2.5.4 hingga versi 2.6.0
    • setuptools dari 58.0.4 hingga 61.2.0
  • Pustaka R yang ditingkatkan:
  • Pustaka Java yang ditingkatkan:
    • io.delta.delta-sharing-spark_2.12 dari 0.5.2 hingga 0.6.2
    • org.apache.hive.hive-storage-api dari 2.7.2 hingga 2.8.1
    • org.apache.parquet.parquet-column dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
    • org.apache.parquet.parquet-common dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
    • org.apache.parquet.parquet-encoding dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures dari 1.12.3-databricks-0001 hingga 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
    • org.apache.parquet.parquet-jackson dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
    • org.tukaani.xz dari 1.8 hingga 1.9

Apache Spark

Databricks Runtime 12.1 menyertakan Apache Spark 3.3.1. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 12.0 (EoS), serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:

  • [SPARK-41405] [SC-119769][12.1.0] Kembali "[SC-119411][sql] Centralize the column resolution logic" and "[SC-117170][spark-41338][SQL] Resolve outer references and normal columns in the same analyzer batch"
  • [SPARK-41405] [SC-119411][sql] Sentralisasi logika resolusi kolom
  • [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand harus mengatur bendera penimpaan dengan benar
  • [SPARK-41659] [SC-119526][connect][12.X] Aktifkan doktor di pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][sql] Perbaiki regresi kinerja pembaca ORC karena fitur nilai DEFAULT
  • [SPARK-41807] [SC-119399][core] Hapus kelas kesalahan yang tidak ada: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
  • [SPARK-41578] [12.x][sc-119273][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_2141
  • [SPARK-41571] [SC-119362][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2310
  • [SPARK-41810] [SC-119373][connect] Menyimpulkan nama dari daftar kamus di SparkSession.createDataFrame
  • [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Memindahkan dokumentasi dan skrip Spark Connect ke dokumentasi dev/ dan Python
  • [SPARK-41534] [SC-119456][connect][SQL][12.x] Menyiapkan modul klien awal untuk Spark Connect
  • [SPARK-41365] [SC-118498][ui][3.3] Halaman UI tahapan gagal dimuat untuk proksi di lingkungan benang tertentu
  • [SPARK-41481] [SC-118150][core][SQL] Gunakan INVALID_TYPED_LITERAL Kembali alih-alih _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][sql] Meninjau kembali penanganan ekspresi stateful
  • [SPARK-41726] [SC-119248][sql] Remove OptimizedCreateHiveTableAsSelectCommand
  • [SPARK-41271] [SC-118648][sc-118348][SQL] Dukungan kueri SQL berparameter oleh sql()
  • [SPARK-41066] [SC-119344][connect][PYTHON] Mengimplementasikan DataFrame.sampleBy dan DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][sc-119012][SQL][semua tes] Tarik keluar penulisan v1 ke WriteFiles
  • [SPARK-41565] [SC-118868][sql] Tambahkan kelas kesalahan UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][sql] FUNGSI DECODE mengembalikan hasil yang salah ketika diteruskan NULL
  • [SPARK-41554] [SC-119274] perbaikan perubahan skala Desimal ketika skala menurun oleh m...
  • [SPARK-41065] [SC-119324][connect][PYTHON] Implement and DataFrame.freqItems DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Uji dokumen yang dapat diperpanjang dan tambahkan alias kolom yang hilang ke count()
  • [SPARK-41069] [SC-119310][connect][PYTHON] Menerapkan DataFrame.approxQuantile dan DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][connect][PYTHON] Buat fungsi from_json mendukung DataType Schema
  • [SPARK-41804] [SC-119382][sql] Pilih ukuran elemen yang benar untuk InterpretedUnsafeProjection array UDT
  • [SPARK-41786] [SC-119308][connect][PYTHON] Menghapus duplikasi fungsi bantu
  • [SPARK-41745] [SC-119378][spark-41789][12.X] Buat createDataFrame daftar dukungan Baris
  • [SPARK-41344] [SC-119217][sql] Buat kesalahan lebih jelas ketika tabel tidak ditemukan di katalog SupportsCatalogOptions
  • [SPARK-41803] [SC-119380][connect][PYTHON] Tambahkan fungsi yang hilang log(arg1, arg2)
  • [SPARK-41808] [SC-119356][connect][PYTHON] Membuat opsi dukungan fungsi JSON
  • [SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Buat __getitem__ filter dukungan dan pilih
  • [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Membuat operasi kolom mendukung None
  • [SPARK-41440] [SC-119279][connect][PYTHON] Hindari operator cache untuk Sampel umum.
  • [SPARK-41785] [SC-119290][connect][PYTHON] Mengimplementasikan GroupedData.mean
  • [SPARK-41629] [SC-119276][connect] Dukungan untuk Ekstensi Protokol dalam Relasi dan Ekspresi
  • [SPARK-41417] [SC-118000][core][SQL] Ganti nama _LEGACY_ERROR_TEMP_0019 menjadi INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][connect][12.X] Penanganan Kesalahan yang Tepat untuk Spark Connect Server / Client
  • [SPARK-41292] [SC-119357][koneksi][12.X] Mendukung Jendela di namespace pyspark.sql.window
  • [SPARK-41493] [SC-119339][connect][PYTHON] Membuat opsi dukungan fungsi csv
  • [SPARK-39591] [SC-118675][ss] Pelacakan Kemajuan Asinkron
  • [SPARK-41767] [SC-119337][connect][PYTHON][12.x] Mengimplementasikan Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][connect][PYTHON] Menerapkan DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][connect][12.X] Aktifkan doctest di pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][connect] Campurkan ClientId dalam cache SparkSession
  • [SPARK-41354] [SC-119194][connect] Tambahkan RepartitionByExpression ke proto
  • [SPARK-41784] [SC-119289][connect][PYTHON] Tambahkan elemen yang hilang __rmod__ pada Kolom
  • [SPARK-41778] [SC-119262][sql] Tambahkan alias "reduce" ke ArrayAggregate
  • [SPARK-41067] [SC-119171][connect][PYTHON] Mengimplementasikan DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][connect][PYTHON] Menjadikan nama operasi string internal konsisten dengan FunctionRegistry
  • [SPARK-41734] [SC-119160][connect] Tambahkan pesan induk untuk Katalog
  • [SPARK-41742] [SC-119263] Mendukung df.groupBy().agg({"*":"count"})
  • [SPARK-41761] [SC-119213][connect][PYTHON] Memperbaiki operasi aritmetika: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][sql] Ganti nama UNSUPPORTED_CORRELATED_REFERENCE menjadi CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][connect][PYTHON] Perbaikan
  • [SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implement unwrap_udt function
  • [SPARK-41333] [SC-119195][spark-41737] Implement GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][connect][PYTHON] Memperbaiki Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][sql] Mendukung resolusi alias kolom lateral implisit pada fungsi agregasi
  • [SPARK-41529] [SC-119207][connect][12.X] Menerapkan SparkSession.stop
  • [SPARK-41729] [SC-119205][core][SQL][12.x] Ganti nama _LEGACY_ERROR_TEMP_0011 menjadi UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][connect][12.X] Menghilangkan Duplikasi Cetak dan repr_html di LogicalPlan
  • [SPARK-41740] [SC-119169][connect][PYTHON] Mengimplementasikan Column.name
  • [SPARK-41733] [SC-119163][sql][SS] Terapkan pemangkasan berbasis pola pohon untuk aturan ResolveWindowTime
  • [SPARK-41732] [SC-119157][sql][SS] Terapkan pemangkasan berbasis pola pohon untuk aturan SessionWindowing
  • [SPARK-41498] [SC-119018] Menyebarkan metadata melalui Union
  • [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Terapkan pengakses kolom
  • [SPARK-41736] [SC-119161][connect][PYTHON] pyspark_types_to_proto_types harus mendukung ArrayType
  • [SPARK-41473] [SC-119092][connect][PYTHON] Mengimplementasikan fungsi format_number
  • [SPARK-41707] [SC-119141][connect][12.X] Implement Catalog API in Spark Connect
  • [SPARK-41710] [SC-119062][connect][PYTHON] Implementasi Column.between
  • [SPARK-41235] [SC-119088][sql][PYTHON]Fungsi urutan tinggi: implementasi array_compact
  • [SPARK-41518] [SC-118453][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][connect][PYTHON] Menerapkan fungsi sequence
  • [SPARK-41703] [SC-119060][connect][PYTHON] Gabungkan NullType dan typed_null dalam Literal
  • [SPARK-41722] [SC-119090][connect][PYTHON] Terapkan 3 fungsi jendela waktu yang hilang
  • [SPARK-41503] [SC-119043][connect][PYTHON] Implementasi Fungsi Transformasi Partisi
  • [SPARK-41413] [SC-118968][sql] Hindari shuffle di Storage-Partitioned Join saat kunci partisi tidak cocok, tetapi ekspresi join kompatibel
  • [SPARK-41700] [SC-119046][connect][PYTHON] Remove FunctionBuilder
  • [SPARK-41706] [SC-119094][connect][PYTHON] pyspark_types_to_proto_types harus mendukung MapType
  • [SPARK-41702] [SC-119049][connect][PYTHON] Tambahkan operasi kolom yang tidak valid
  • [SPARK-41660] [SC-118866][sql] Hanya sebarkan kolom metadata jika digunakan
  • [SPARK-41637] [SC-119003][sql] ORDER BY ALL
  • [SPARK-41513] [SC-118945][sql] Terapkan akumulator untuk mengumpulkan metrik jumlah baris dari setiap mapper
  • [SPARK-41647] [SC-119064][connect][12.X] Menghapus duplikasi docstring di pyspark.sql.connect.functions
  • [SPARK-41701] [SC-119048][connect][PYTHON] Memberikan dukungan operasi kolom decimal
  • [SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implement rollup, cube dan pivot
  • [SPARK-41635] [SC-118944][sql] GROUP BY ALL
  • [SPARK-41645] [SC-119057][connect][12.X] Mereduksi duplikasi docstring di pyspark.sql.connect.dataframe
  • [SPARK-41688] [SC-118951][connect][PYTHON] Pindahkan Ekspresi ke expressions.py
  • [SPARK-41687] [SC-118949][connect] Menghapus duplikasi docstring di pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][connect] Deduplicate docstrings pada pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][Koneksi] Memisahkan GroupedData ke file group.py
  • [SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementasikan Window fungsi
  • [SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Buat dukungan operasi Kolom datetime
  • [SPARK-41672] [SC-118929][connect][PYTHON] Aktifkan fungsi yang tidak digunakan lagi
  • [SPARK-41673] [SC-118932][connect][PYTHON] Mengimplementasikan Column.astype
  • [SPARK-41364] [SC-118865][connect][PYTHON] Mengimplementasikan fungsi broadcast
  • [SPARK-41648] [SC-118914][connect][12.X] Menghapus duplikasi docstring di pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][connect][12.X] Deduplikasi docstring di pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][connect][12.X] Menghilangkan duplikasi docstring di pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Terapkan fungsi Lambda lainnya
  • [SPARK-41441] [SC-118557][sql] Dukungan Hasilkan tanpa output anak yang diperlukan untuk menghosting referensi luar
  • [SPARK-41669] [SC-118923][sql] Pemangkasan awal pada canCollapseExpressions
  • [SPARK-41639] [SC-118927][sql][PROTOBUF] : Hapus ScalaReflectionLock dari SchemaConverters
  • [SPARK-41464] [SC-118861][connect][PYTHON] Implementasi DataFrame.to
  • [SPARK-41434] [SC-118857][connect][PYTHON] Implementasi awal LambdaFunction
  • [SPARK-41539] [SC-118802][sql] Memetakan ulang statistik dan kendala terhadap keluaran dalam rencana logis untuk LogicalRDD
  • [SPARK-41396] [SC-118786][sql][PROTOBUF] Dukungan lapangan OneOf dan pemeriksaan rekursi
  • [SPARK-41528] [SC-118769][connect][12.X] Gabungkan namespace Spark Connect dan PySpark API
  • [SPARK-41568] [SC-118715][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1236
  • [SPARK-41440] [SC-118788][connect][PYTHON] Mengimplementasikan DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Tambahkan Spark Connect dan protobuf ke dalam setup.py dengan menentukan dependensi
  • [SPARK-27561] [SC-101081][12.x][SQL] Mendukung resolusi alias kolom lateral implisit pada Project
  • [SPARK-41535] [SC-118645][sql] Atur null dengan benar untuk bidang interval kalender di InterpretedUnsafeProjection dan InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][sql] Mendukung fungsi bawaan masking data 'mask'
  • [SPARK-41520] [SC-118440][sql] Memisahkan TreePattern AND_OR menjadi TreePattern AND dan TreePattern OR
  • [SPARK-41349] [SC-118668][connect][PYTHON] Mengimplementasikan DataFrame.hint
  • [SPARK-41546] [SC-118541][connect][PYTHON] pyspark_types_to_proto_types harus mendukung StructType.
  • [SPARK-41334] [SC-118549][connect][PYTHON] Pindahkan SortOrder proto dari relasi ke ekspresi
  • [SPARK-41387] [SC-118450][ss] Menegaskan offset akhir saat ini dari sumber data Kafka untuk Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][core][SQL] Ganti nama _LEGACY_ERROR_TEMP_1180 menjadi UNEXPECTED_INPUT_TYPE dan hapus _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][connect][PYTHON] Mengimplementasikan Column.{when, otherwise} dan Function when dengan UnresolvedFunction
  • [SPARK-41541] [SC-118460][sql] Perbaiki panggilan ke metode anak yang salah di SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][connect][PYTHON] Implement DataFrame.subtract
  • [SPARK-41248] [SC-118436][sc-118303][SQL] Tambahkan "spark.sql.json.enablePartialResults" untuk mengaktifkan/menonaktifkan hasil parsial JSON
  • [SPARK-41437] Kembalikan "[SC-117601][sql] Jangan optimalkan kueri input dua kali untuk fallback tulis v1"
  • [SPARK-41472] [SC-118352][connect][PYTHON] Terapkan fungsi string/biner lainnya
  • [SPARK-41526] [SC-118355][connect][PYTHON] Mengimplementasikan Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Tingkatkan spekulasi melalui metrik tugas tahapan.
  • [SPARK-41524] [SC-118399][ss] Membedakan SQLConf dan extraOptions di StateStoreConf karena penggunaannya di RocksDBConf
  • [SPARK-41465] [SC-118381][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][sql] Dukungan LongToUnsafeRowMap mengabaikanKunciDuplikat
  • [SPARK-41409] [SC-118302][core][SQL] Ganti nama _LEGACY_ERROR_TEMP_1043 menjadi WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][connect][PYTHON] Mengimplementasikan DataFrame.colRegex
  • [SPARK-41437] [SC-117601][sql] Jangan mengoptimalkan kueri input dua kali untuk penulisan fallback v1
  • [SPARK-41314] [SC-117172][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][connect][PYTHON] Refactor LiteralExpression untuk mendukung DataType
  • [SPARK-41448] [SC-118046] Membuat ID pekerjaan MR yang konsisten di FileBatchWriter dan FileFormatWriter
  • [SPARK-41456] [SC-117970][sql] Meningkatkan performa try_cast
  • [SPARK-41495] [SC-118125][connect][PYTHON] Implementasi collection fungsi: P~Z
  • [SPARK-41478] [SC-118167][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][sql] Refaktor pesan kesalahan untuk NUM_COLUMNS_MISMATCH agar lebih umum
  • [SPARK-41404] [SC-118016][sql] Refaktor ColumnVectorUtils#toBatch untuk membuat ColumnarBatchSuite#testRandomRows pengujian dataType yang lebih primitif
  • [SPARK-41468] [SC-118044][sql] Memperbaiki penanganan PlanExpression dalam EquivalentExpressions
  • [SPARK-40775] [SC-118045][sql] Perbaiki entri deskripsi duplikat untuk pemindaian file V2
  • [SPARK-41492] [SC-118042][connect][PYTHON] Menerapkan fungsi MISC
  • [SPARK-41459] [SC-118005][sql] perbaiki output log operasi pada server thrift yang kosong
  • [SPARK-41395] [SC-117899][sql] InterpretedMutableProjection harus digunakan setDecimal untuk mengatur nilai null untuk desimal dalam baris yang tidak aman
  • [SPARK-41376] [SC-117840][core][3.3] Perbaiki logika pemeriksaan Netty preferDirectBufs saat eksekutor dimulai
  • [SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Menerapkan fungsi collection: E~M
  • [SPARK-41389] [SC-117426][core][SQL] Gunakan WRONG_NUM_ARGS kembali alih-alih _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][sql] Jenis tanggal dan cap waktu dapat diubah menjadi TimestampNTZ
  • [SPARK-41435] [SC-117810][sql] Ubah untuk memanggil invalidFunctionArgumentsError pada curdate() ketika expressions tidak kosong
  • [SPARK-41187] [SC-118030][core] LiveExecutor MemoryLeak di AppStatusListener saat ExecutorLost terjadi
  • [SPARK-41360] [SC-118083][core] Hindari pendaftaran ulang BlockManager jika eksekutor telah hilang
  • [SPARK-41378] [SC-117686][sql] Statistik Kolom Dukungan di DS v2
  • [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Mengambil alih prettyName dari StringDecode
  • [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Menerapkan fungsi tanggal/tanda waktu
  • [SPARK-41329] [SC-117975][connect] Mengatasi impor melingkar di Spark Connect
  • [SPARK-41477] [SC-118025][connect][PYTHON] Dengan benar menyimpulkan jenis data bilangan bulat literal
  • [SPARK-41446] [SC-118024][connect][PYTHON][12.x] Membuat createDataFrame skema dukungan dan jenis himpunan data input lainnya
  • [SPARK-41475] [SC-117997][connect] Memperbaiki kesalahan perintah lint-scala dan kesalahan pengetikan
  • [SPARK-38277] [SC-117799][ss] Clear write batch setelah penerapan penyimpanan status RocksDB
  • [SPARK-41375] [SC-117801][ss] Hindari KafkaSourceOffset terbaru yang kosong
  • [SPARK-41412] [SC-118015][connect] Mengimplementasikan Column.cast
  • [SPARK-41439] [SC-117893][connect][PYTHON] Implementasikan DataFrame.melt dan DataFrame.unpivot
  • [SPARK-41399] [SC-118007][sc-117474][CONNECT] Uji terkait kolom refaktor ke test_connect_column
  • [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Kolom harus mendukung != operator
  • [SPARK-40697] [SC-117806][sc-112787][SQL] Tambahkan karakter padding pada proses pembacaan untuk menutupi file data eksternal.
  • [SPARK-41349] [SC-117594][connect][12.X] Melaksanakan DataFrame.hint
  • [SPARK-41338] [SC-117170][sql] Menyelesaikan referensi eksternal dan kolom normal dalam batch analisis yang sama
  • [SPARK-41436] [SC-117805][connect][PYTHON] Implementasi collection fungsi: A~C
  • [SPARK-41445] [SC-117802][connect] Mengimplementasikan DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][sql] to_char harus mengembalikan null saat format bernilai null
  • [SPARK-41444] [SC-117796][connect] Dukungan untuk read.json()
  • [SPARK-41398] [SC-117508][sql] Luangkan batasan pada Storage-Partitioned Gabung saat kunci partisi setelah pemfilteran runtime tidak cocok
  • [SPARK-41228] [SC-117169][sql] Ganti Nama & Tingkatkan pesan kesalahan untuk COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][connect][PYTHON] Mengimplementasikan fungsi count_distinct dan sum_distinct
  • [SPARK-41433] [SC-117596][connect] Membuat Ukuran Batch Maks Arrow dapat dikonfigurasi
  • [SPARK-41397] [SC-117590][connect][PYTHON] Terapkan bagian dari fungsi string/biner
  • [SPARK-41382] [SC-117588][connect][PYTHON] Implementasikan fungsi product
  • [SPARK-41403] [SC-117595][connect][PYTHON] Mengimplementasikan DataFrame.describe
  • [SPARK-41366] [SC-117580][connect] DF.groupby.agg() harus kompatibel
  • [SPARK-41369] [SC-117584][connect] Tambahkan sambungkan umum ke jar berbayang server
  • [SPARK-41411] [SC-117562][ss] Watermark Operator Multi-Stateful mendukung perbaikan bug
  • [SPARK-41176] [SC-116630][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Menerapkan fungsi agregasi
  • [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Menerapkan fungsi normal
  • [SPARK-41305] [SC-117411][connect] Tingkatkan Dokumentasi untuk Proto Perintah
  • [SPARK-41372] [SC-117427][connect][PYTHON] Implementasikan DataFrame TempView
  • [SPARK-41379] [SC-117420][ss][PYTHON] Sediakan sesi Spark yang dikloning di DataFrame dalam fungsi pengguna untuk sink foreachBatch di PySpark
  • [SPARK-41373] [SC-117405][sql][ERROR] Ganti nama CAST_WITH_FUN_SUGGESTION menjadi CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][sql] Metode refaktor ColumnVectorUtils#populate untuk digunakan PhysicalDataType alih-alih DataType
  • [SPARK-41355] [SC-117423][sql] Solusi untuk masalah validasi nama tabel hive
  • [SPARK-41390] [SC-117429][sql] Perbarui skrip yang digunakan untuk menghasilkan register fungsi di UDFRegistration
  • [SPARK-41206] [SC-117233][sc-116381][SQL] Ganti nama kelas _LEGACY_ERROR_TEMP_1233 kesalahan menjadi COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Menerapkan fungsi matematika
  • [SPARK-40970] [SC-117308][connect][PYTHON] Mendukung Daftar[Kolom] untuk argumen 'on' dari join
  • [SPARK-41345] [SC-117178][connect] Tambahkan Petunjuk ke Hubungkan Proto
  • [SPARK-41226] [SC-117194][sql][12.x] Jenis Refaktor Spark dengan memperkenalkan jenis fisik
  • [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Tambahkan dukungan dasar untuk DataFrameWriter
  • [SPARK-41347] [SC-117173][connect] Tambahkan Cast ke ekspresi proto
  • [SPARK-41323] [SC-117128][sql] Dukungan skema_saat_ini
  • [SPARK-41339] [SC-117171][sql] Tutup dan buat ulang batch tulis RocksDB alih-alih hanya membersihkan
  • [SPARK-41227] [SC-117165][connect][PYTHON] Implementasikan gabungan silang DataFrame
  • [SPARK-41346] [SC-117176][connect][PYTHON] Mengimplementasikan fungsi asc dan desc
  • [SPARK-41343] [SC-117166][connect] Pindahkan penguraian FunctionName ke sisi server
  • [SPARK-41321] [SC-117163][connect] Mendukung bidang target untuk UnresolvedStar
  • [SPARK-41237] [SC-117167][sql] Gunakan kembali kelas UNSUPPORTED_DATATYPE kesalahan untuk _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][sql] Gunakan INVALID_SCHEMA.NON_STRING_LITERAL Kembali alih-alih _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Optimalkan penggunaan konstruktor StructType
  • [SPARK-41335] [SC-117135][connect][PYTHON] Dukungan IsNull dan IsNotNull di Kolom
  • [SPARK-41332] [SC-117131][connect][PYTHON] Memperbaiki nullOrdering dalam SortOrder
  • [SPARK-41325] [SC-117132][connect][12.X] Perbaiki avg() yang hilang untuk GroupBy di DF
  • [SPARK-41327] [SC-117137][core] Memperbaiki SparkStatusTracker.getExecutorInfos dengan mengaktifkan/mematikan informasi memori OnHeap/OffHeap
  • [SPARK-41315] [SC-117129][connect][PYTHON] Melaksanakan DataFrame.replace dan DataFrame.na.replace
  • [SPARK-41328] [SC-117125][connect][PYTHON] Tambahkan API logis dan string ke Kolom
  • [SPARK-41331] [SC-117127][connect][PYTHON] Tambahkan orderBy dan drop_duplicates
  • [SPARK-40987] [SC-117124][core] BlockManager#removeBlockInternal harus memastikan penguncian terbuka dengan mulus dan benar.
  • [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Melakukan refactoring pada "Column" untuk mendukung kompatibilitas API.
  • [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Menerapkan DataFrame.withColumnRenamed
  • [SPARK-41221] [SC-116607][sql] Tambahkan kelas kesalahan INVALID_FORMAT
  • [SPARK-41272] [SC-116742][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][sql] Gunakan INVALID_SCHEMA Kembali alih-alih _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][python][SS][12.x] Mengonversi instance NumPy ke tipe primitif Python dalam pembaruan GroupState
  • [SPARK-41174] [SC-116609][core][SQL] Menyebarkan kelas kesalahan kepada pengguna karena tidak valid formatto_binary()
  • [SPARK-41264] [SC-116971][connect][PYTHON] Membuat dukungan Literal lebih banyak jenis data
  • [SPARK-41326] [SC-116972] [SAMBUNGKAN] Memperbaiki deduplicasi tidak memiliki input
  • [SPARK-41316] [SC-116900][sql] Aktifkan rekursi ekor sedapat mungkin
  • [SPARK-41297] [SC-116931] [KONEKSI] [PYTHON] Mendukung Ekspresi String dalam pemfilteran.
  • [SPARK-41256] [SC-116932][sc-116883][CONNECT] Menerapkan DataFrame.denganKolom(kolom)
  • [SPARK-41182] [SC-116632][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][sql] Memigrasikan kesalahan opsi peta ke kelas kesalahan
  • [SPARK-40940] [SC-115993][12.x] Hapus pemeriksa operator multi-stateful untuk kueri streaming.
  • [SPARK-41310] [SC-116885][connect][PYTHON] Mengimplementasikan DataFrame.toDF
  • [SPARK-41179] [SC-116631][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][sql] BHJ LeftAnti tidak memperbarui numOutputRows ketika codegen dinonaktifkan
  • [SPARK-41148] [SC-116878][connect][PYTHON] Mengimplementasikan DataFrame.dropna dan DataFrame.na.drop
  • [SPARK-41217] [SC-116380][sql] Tambahkan kelas kesalahan FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][connect][PYTHON] Meningkatkan DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Menyamakan Perilaku untuk SparkSession.range()
  • [SPARK-41306] [SC-116860][connect] Meningkatkan dokumentasi proto Connect Expression
  • [SPARK-41280] [SC-116733][connect] Mengimplementasikan DataFrame.tail
  • [SPARK-41300] [SC-116751] [CONNECT] Skema yang belum ditetapkan ditafsirkan sebagai Skema
  • [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Ganti Nama RemoteSparkSession
  • [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas tidak boleh mengembalikan dataframe pandas yang bersifat opsional
  • [SPARK-41291] [SC-116738][connect][PYTHON] DataFrame.explain harus mencetak dan mengembalikan None.
  • [SPARK-41278] [SC-116732][connect] Membersihkan QualifiedAttribute yang tidak digunakan di Expression.proto
  • [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Hapus basis konversi koleksi berlebihan pada kode Scala 2.13
  • [SPARK-41261] [SC-116718][python][SS] Perbaiki masalah untuk applyInPandasWithState ketika kolom kunci pengelompokan tidak ditempatkan secara berurutan sejak awal
  • [SPARK-40872] [SC-116717][3.3] Fallback ke blok acak asli ketika potongan acak yang digabungkan dorong berukuran nol
  • [SPARK-41114] [SC-116628][connect] Mendukung data lokal untuk LocalRelation
  • [SPARK-41216] [SC-116678][connect][PYTHON] Implementasikan DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][connect][PYTHON] Mendukung lebih banyak jenis data bawaan
  • [SPARK-41230] [SC-116674][connect][PYTHON] Hapus str dari jenis ekspresi agregat
  • [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Implementasi pengumpulan berbasis Panah yang Dioptimalkan untuk mengalirkan dari server ke klien
  • [SPARK-41222] [SC-116625][connect][PYTHON] Menyatukan definisi pengetikan
  • [SPARK-41225] [SC-116623] [SAMBUNGKAN] [PyTHON] Nonaktifkan fungsi yang tidak didukung.
  • [SPARK-41201] [SC-116526][connect][PYTHON] Implementasi DataFrame.SelectExpr di klien Python
  • [SPARK-41203] [SC-116258] [CONNECT] Mendukung Dataframe.transform di klien Python.
  • [SPARK-41213] [SC-116375][connect][PYTHON] Implementasi DataFrame.__repr__ dan DataFrame.dtypes
  • [SPARK-41169] [SC-116378][connect][PYTHON] Mengimplementasikan DataFrame.drop
  • [SPARK-41172] [SC-116245][sql] Memigrasikan kesalahan ref ambigu ke kelas kesalahan
  • [SPARK-41122] [SC-116141][connect] Explain API dapat mendukung mode yang berbeda
  • [SPARK-41209] [SC-116584][sc-116376][PYTHON] Meningkatkan inferensi jenis PySpark dalam metode _merge_type
  • [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogenisasi versi protobuf di seluruh server Spark connect untuk menggunakan versi utama yang sama.
  • [SPARK-35531] [SC-116409][sql] Memperbarui statistik tabel hive tanpa konversi yang tidak perlu
  • [SPARK-41154] [SC-116289][sql] Penembolokan relasi yang salah untuk kueri dengan spesifikasi perjalanan waktu
  • [SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implement DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][sql] Ganti nama UNSUPPORTED_EMPTY_LOCATION menjadi INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][sql] Tambahkan API ekstensi untuk melakukan normalisasi rencana untuk penembolokan
  • [SPARK-41054] [SC-116447][ui][CORE] Mendukung RocksDB sebagai KVStore di antarmuka pengguna langsung
  • [SPARK-38550] [SC-115223]Kembali "[SQL][core] Gunakan penyimpanan berbasis disk untuk menyimpan lebih banyak informasi debug untuk antarmuka pengguna langsung"
  • [SPARK-41173] [SC-116185][sql] Keluarkan require() dari konstruktor ekspresi string
  • [SPARK-41188] [SC-116242][core][ML] Atur executorEnv OMP_NUM_THREADS menjadi spark.task.cpus secara default untuk proses JVM pelaksana spark
  • [SPARK-41130] [SC-116155][sql] Ganti nama OUT_OF_DECIMAL_TYPE_RANGE menjadi NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][sql] Kurangi konversi koleksi saat membuat AttributeMap
  • [SPARK-41139] [SC-115983][sql] Meningkatkan kelas kesalahan: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][protobuf] Memerlukan bayangan untuk jar kelas Java, meningkatkan penanganan kesalahan
  • [SPARK-40999] [SC-116168] Penyebaran petunjuk ke subkueri
  • [SPARK-41017] [SC-116054][sql] Mendukung pemangkasan kolom dengan beberapa filter yang bersifat nondeterministik
  • [SPARK-40834] [SC-114773][sql] Gunakan SparkListenerSQLExecutionEnd untuk melacak status SQL akhir di UI
  • [SPARK-41118] [SC-116027][sql] to_number/try_to_number harus mengembalikan null ketika formatnya adalah null
  • [SPARK-39799] [SC-115984][sql] DataSourceV2: Lihat antarmuka katalog
  • [SPARK-40665] [SC-116210][sc-112300][CONNECT] Hindari penyematan Spark Connect dalam rilis biner Apache Spark
  • [SPARK-41048] [SC-116043][sql] Meningkatkan partisi dan pemesanan output dengan cache AQE
  • [SPARK-41198] [SC-116256][ss] Perbaiki metrik dalam kueri streaming yang memiliki sumber streaming CTE dan DSv1
  • [SPARK-41199] [SC-116244][ss] Perbaiki masalah metrik saat sumber streaming DSv1 dan sumber streaming DSv2 digunakan bersama
  • [SPARK-40957] [SC-116261][sc-114706] Tambahkan cache memori di HDFSMetadataLog
  • [SPARK-40940] Kembalikan "[SC-115993] Hapus pemeriksa operator Multi-stateful untuk kueri streaming."
  • [SPARK-41090] [SC-116040][sql] Throw Exception untuk db_name.view_name saat membuat tampilan sementara oleh Dataset API
  • [SPARK-41133] [SC-116085][sql] Integrasikan UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION ke NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][sc-111442][CONNECT] Pembuangan Kode 9 Komit
  • [SPARK-40448] [SC-114447][sc-111314][CONNECT] Bangun Spark Connect sebagai Plugin Driver dengan Dependensi yang Dilindungi
  • [SPARK-41096] [SC-115812][sql] Mendukung membaca jenis FIXED_LEN_BYTE_ARRAY parquet
  • [SPARK-41140] [SC-115879][sql] Ganti nama kelas _LEGACY_ERROR_TEMP_2440 kesalahan menjadi INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][sql] Ketidakcocokan antara FileSourceScanExec dan Orc dan ParquetFileFormat dalam menghasilkan output kolom
  • [SPARK-41155] [SC-115991][sql] Tambahkan pesan kesalahan ke SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [SC-115993] Hapus pemeriksa operator multi-stateful untuk kueri streaming.
  • [SPARK-41098] [SC-115790][sql] Ganti nama GROUP_BY_POS_REFERS_AGG_EXPR menjadi GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][sql] Migrasi jenis memeriksa kegagalan pemformatan angka ke kelas kesalahan
  • [SPARK-41059] [SC-115658][sql] Ganti nama _LEGACY_ERROR_TEMP_2420 menjadi NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][sql] Konversi DATATYPE_MISMATCH.UNSPECIFIED_FRAME ke INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][sql] Ganti nama _LEGACY_ERROR_TEMP_0055 menjadi UNCLOSED_BRACKETED_COMMENT

Pembaruan pemeliharaan

Lihat Pembaruan pemeliharaan Databricks Runtime 12.1.

Lingkungan sistem

  • Sistem Operasi: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Danau Delta: 2.2.0

Perpustakaan Python terinstal

Perpustakaan Versi Perpustakaan Versi Perpustakaan Versi
argon2-cffi 21.3.0 Pengikatan Argon2-cffi 21.2.0 asttoken 2.0.5
atribut 21.4.0 panggilan balik 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 hitam 22.3.0 pemutih 4.1.0
boto3 1.21.32 botocore 1.24.32 sertifikat 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
klik 8.0.4 Kriptografi 3.4.8 pengendara sepeda 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
penghias 5.1.1 defusedxml 0.7.1 distlib 0.3.6
konversi docstring ke markdown 0.11 titik masuk 0,4 eksekusi 0.8.3
gambaran umum aspek 1.0.0 fastjsonschema 2.16.2 filelock 3.8.2
alat pengelola font 4.25.0 IDNA 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 jupyter-client (klien Jupyter) 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline (modul untuk menampilkan grafik secara inline) 0.1.2 Mccabe 0.7.0 penyetelan salah 0.8.4
ekstensi mypy 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
buku catatan 6.4.8 numpy (perpustakaan Python untuk operasi numerik) 1.21.5 pengemasan 21.3
Panda 1.4.2 Pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 kambing hitam 0.5.2 pexpect=4.8.0 4.8.0
pickleshare 0.7.5 Bantal 9.0.1 pipa 21.2.4
platformdirs 2.6.0 plotly 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
requests 2.27.1 requests-unixsocket 0.2.0 tali 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy (perpustakaan Python untuk komputasi ilmiah) 1.7.3
Seaborn (perpustakaan Python untuk visualisasi data) 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
Enam 1.16.0 alat penyaring sup 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels (paket Python untuk pemodelan statistik) 0.13.2 kegigihan 8.0.1
selesai 0.13.1 jalur uji 0.5.0 threadpoolctl 2.2.0
Tokenisasi-RT 4.2.1 tomli 1.2.2 Tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
pembaruan otomatis tanpa pengawasan 0.1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings=0.5.1 0.5.1 apa itu patch 1.0.3
wheel 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Perpustakaan R terpasang

Pustaka R diinstal dari cuplikan CRAN Microsoft pada 2022-11-11.

Perpustakaan Versi Perpustakaan Versi Perpustakaan Versi
anak panah 10.0.0 askpass 1.1 pastikanbahwa 0.2.1
pemindahan fitur ke versi lama (backports) 1.4.1 dasar 4.2.2 base64enc 0.1-3
sedikit 4.0.4 bit-64 4.0.5 blob 1.2.3
sepatu bot 1.3-28 menyeduh 1,0-8 Brio 1.1.3
sapu 1.0.1 bslib 0.4.1 cashmere 1.0.6
layanan panggilan 3.7.3 caret 6.0-93 cellranger 1.1.0
kronogram 2.3-58 class 7.3-20 CLI 3.4.1
pemangkas 0.8.0 jam dinding 0.6.1 kluster 2.1.4
codetools 0.2-18 ruang warna 2.0-3 commonmark 1.8.1
pengkompilasi 4.2.2 config 0.3.1 cpp11 0.4.3
kriyon 1.5.2 kredensial 1.3.2 melengkung 4.3.3
data.table (sebuah paket untuk pengolahan data table) 1.14.4 kumpulan data 4.2.2 DBI 1.1.3
dbplyr 2.2.1 deskripsi 1.4.2 devtools 2.4.5
diffobj 0.3.5 digest 0.6.30 pencahayaan turun 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
elipsis 0.3.2 menilai 0.18 penggemar 1.0.3
warna-warna 2.1.1 pemetaan cepat 1.1.0 fontawesome 0.4.0
untuk kucing 0.5.2 foreach (pengulangan untuk setiap elemen) 1.5.2 asing 0.8-82
bengkel pandai besi 0.2.0 fs 1.5.2 masa depan 1.29.0
menerapkan di masa depan 1.10.0 kumur 1.2.1 obat generik 0.1.3
Gert 1.9.1 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 variabel global 0.16.1
lem 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 Grafik 4.2.2 grDevices 4.2.2
kisi 4.2.2 gridExtra 2.3 gsubfn 0.7
gtabel 0.3.1 topi keras 1.2.0 tempat aman 2.5.1
lebih tinggi 0,9 HMS 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Pengiterasi 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1.40
Pelabelan 0.4.2 nanti 1.3.0 rangka 0.20-45
lahar 1.7.0 siklus hidup 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 Markdown 1.3
Massa 7.3-58 Matrix 1.5-1 memosankan 2.0.1
Metode 4.2.2 mgcv 1.8-41 pantomim 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv Agustus 2016 - Januari 2017 openssl 2.0.4 paralel 4.2.2
secara paralel 1.32.1 pilar 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 apresiasi 1.0.0
prettyunits 1.1.1 pROC 1.18.0 ProsesX 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Kemajuan 1.2.2
progresr 0.11.0 janji 1.2.0.1 proto 1.0.0
proksi 0,4-27 P.S. 1.7.2 menggeram lembut 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest (algoritma pembelajaran mesin) 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
alat baca 2.1.3 readxl (membaca file Excel) 1.4.1 recipes 1.0.3
pertandingan ulang 1.0.1 pertandingan ulang 2 2.1.2 pengontrol jarak jauh 2.4.2
contoh replikasi 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.2 timbangan / sisik 1.2.1
selektor 0,4-2 informasi sesi 1.2.2 bentuk 1.4.6
mengkilap 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 spasial 7.3-11 garis lengkung 4.2.2
sqldf 0,4-11 SQUAREM 2021.1 statistik 4.2.2
statistik4 4.2.2 string 1.7.8 stringr 1.4.1
bertahan hidup 3.4-0 Sistem 3.4.1 systemfonts 1.0.4
bahasa pemrograman Tcl/Tk 4.2.2 ujiitu 3.1.5 pemformatan teks 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 perubahan jam 0.1.1 TanggalWaktu 4021.106
tinytex 0,42 perangkat 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 gunakan ini 2.1.6 utf8 1.2.2
Utilitas 4.2.2 UUID (Pengidentifikasi Unik Universal) 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 Vroom 1.6.0 Waldo 0.4.0
kumis 0,4 dengan 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Pustaka Java dan Scala terinstal (versi kluster Scala 2.12)

ID Grup Identifikasi Artefak Versi
antlr antlr 2.7.7
com.amazonaws Klien Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws AWS Java SDK untuk CloudHSM 1.12.189
com.amazonaws aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config (konfigurasi SDK Java untuk AWS) 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-impor-ekspor 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws AWS-Java-SDK-Pembelajaran Mesin 1.12.189
com.amazonaws aws-java-sdk-opsworks (SDK Java untuk OpsWorks) 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) 1.12.189
com.amazonaws SDK Java untuk Storage Gateway AWS 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws AWS Java SDK Dukungan 1.12.189
com.amazonaws aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics aliran 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware bayangan-kriogenik 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml teman sekelas 1.3.4
com.fasterxml.jackson.core Jackson Annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype Jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine kafein 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib inti 1.1.2
com.github.fommil.netlib referensi_asli-java 1.1
com.github.fommil.netlib rujukan_asli-java-natives 1.1
com.github.fommil.netlib sistem_asli-java 1.1
com.github.fommil.netlib native_sistem-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava jambu 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger pembuat profil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi kode_sumber_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.9
com.ning compress-lzf (algoritma kompresi) 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning JSON 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
koleksi umum koleksi umum 3.2.2
commons-dbcp commons-dbcp 1.4
unggah berkas pada commons unggah berkas pada commons 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging (perpustakaan Java untuk fungsi pencatatan) commons-logging (perpustakaan Java untuk fungsi pencatatan) 1.1.3
kolam umum kolam umum 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Tidak peduli 2.2.1
dev.ludovic.netlib LAPACK 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor udara 0,21%
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics inti metrik 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics pengukuran-pemeriksaan kesehatan 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrik-jmx 4.1.1
io.dropwizard.metrics metrik-json 4.1.1
io.dropwizard.metrics metrik-jvm 4.1.1
io.dropwizard.metrics metrik-servlet 4.1.1
io.netty netty-all 4.1.74.Final
io.netty Netty Buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) 4.1.74.Final
io.netty Kelas netty-tcnative 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll (kelas transportasi netty - epoll) 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_umum 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway (gateway pendorong sederhana) 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx pengumpul 0.12.0
jakarta.anotasi jakarta.anotasi-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivasi 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
Javolution Javolution 5.5.1
Jline Jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine mentimun acar 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
jaring.bunga salju snowflake-ingest-sdk 0.9.6
jaring.bunga salju snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_gabungan_semua 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr StringTemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format tanda panah 7.0.0
org.apache.arrow inti-memori-panah 7.0.0
org.apache.arrow Arrow-Memory-Netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-koleksi4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text (teks umum) 1.10.0
org.apache.curator kurator dan klien 2.13.0
org.apache.curator kerangka kerja kurator 2.13.0
org.apache.curator kurasi resep 2.13.0
org.apache.derby pertandingan derbi 10.14.2.0
org.apache.hadoop hadoop-klien-api 3.3.4-databricks
org.apache.hadoop lingkungan kerja klien Hadoop 3.3.4
org.apache.hive hive-beeline (antarmuka perintah untuk Apache Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API penyimpanan hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) 2.3.9
org.apache.hive.shims Pengatur Jadwal Hive Shims 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy tanaman anggur 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet parquet-encoding 1.12.3-databricks-0002
org.apache.parquet parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus anotasi penonton 0.13.0
org.apache.zookeeper penjaga kebun binatang 3.6.2
org.apache.zookeeper penjaga kebun binatang-jute 3.6.2
org.checkerframework pemeriksa kualitas 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino Pengompilasi Umum 3.0.16
org.codehaus.janino Januari 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty lanjutan dermaga 9.4.46.v20220331
org.eclipse.jetty jetty-http (protokol HTTP untuk server Jetty) 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty Jetty Plus 9.4.46.v20220331
org.eclipse.jetty Jetty-Proxy 9.4.46.v20220331
org.eclipse.jetty keamanan jetty 9.4.46.v20220331
org.eclipse.jetty Jetty Server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Aplikasi web Jetty 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-API 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-klien 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-pemindai lokasi 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-penanda-sumber-daya 1.0.3
org.glassfish.hk2.external aopalliance (dikemas ulang) 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-inti 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey biasa 2.36
org.glassfish.jersey.core Jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator Hibernate Validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotasi 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client (klien Java untuk MariaDB) 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap pengganjal 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt antarmuka pengujian 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark tidak digunakan 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1