Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Nota
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan dan akhir masa pakai. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 12.1, didukung oleh Apache Spark 3.3.1.
Databricks merilis versi ini pada Januari 2023.
Fitur dan peningkatan baru
- Fitur tabel Delta Lake yang didukung untuk manajemen protokol
- I/O prediktif untuk pembaruan ada di pratinjau publik
- Catalog Explorer sekarang tersedia untuk semua persona
- Dukungan untuk beberapa operator stateful dalam satu kueri streaming
- Dukungan untuk buffer protokol sedang dalam Pratinjau Umum
- Dukungan untuk autentikasi Confluent Schema Registry
- Dukungan untuk membagikan riwayat tabel dengan Delta Sharing
- Dukungan untuk streaming dengan Delta Sharing
- Versi tabel yang menggunakan cap waktu sekarang didukung untuk tabel Delta Sharing dalam katalog
- Dukungan untuk fitur WHEN NOT MATCHED BY SOURCE pada MERGE INTO
- Kumpulan statistik yang dioptimalkan untuk CONVERT TO DELTA
- Dukungan Unity Catalog untuk mengembalikan tabel yang terhapus
Fitur tabel Delta Lake yang didukung untuk manajemen protokol
Azure Databricks telah memperkenalkan dukungan untuk fitur tabel Delta Lake, yang memperkenalkan bendera granular yang menentukan fitur mana yang didukung oleh tabel tertentu. Lihat Kompatibilitas dan protokol fitur Delta Lake.
I/O prediktif untuk pembaruan sedang dalam pratinjau publik
I/O prediktif sekarang mempercepat operasi DELETE, MERGE, dan UPDATE untuk tabel Delta dengan vektor penghapusan yang diaktifkan pada komputasi bertenaga Photon. Lihat Apa itu I/O prediktif?.
Catalog Explorer sekarang tersedia untuk semua persona
Catalog Explorer sekarang tersedia untuk semua persona Azure Databricks saat menggunakan Databricks Runtime 7.3 LTS ke atas.
Dukungan untuk beberapa operator berstatus dalam satu kueri streaming
Pengguna sekarang dapat menghubungkan operator stateful dengan mode append dalam kueri streaming. Tidak semua operator didukung sepenuhnya. Gabung interval waktu stream-stream dan flatMapGroupsWithState tidak mengizinkan operator stateful lainnya untuk ditautkan.
Dukungan untuk protokol buffer ada di Pratinjau Umum
Anda dapat menggunakan from_protobuf fungsi dan to_protobuf untuk bertukar data antara jenis biner dan struct. Lihat Baca dan tulis protokol buffer.
Dukungan autentikasi untuk Confluent Schema Registry
Azure Databricks kini terintegrasi dengan Confluent Schema Registry dan kini mendukung alamat registri skema eksternal yang dilengkapi dengan autentikasi. Fitur ini tersedia untuk from_avro, to_avro, from_protobuf, dan to_protobuf fungsi. Lihat Protobuf atau Avro.
Dukungan untuk berbagi riwayat tabel dengan Delta Sharing
Sekarang Anda dapat menggunakan Berbagi Delta untuk berbagi tabel dengan riwayat lengkap, sehingga penerima dapat melakukan kueri lintas waktu dan mengakses tabel menggunakan Spark Structured Streaming.
WITH HISTORY direkomendasikan alih-alih CHANGE DATA FEED, meskipun yang terakhir terus didukung. Lihat ALTER SHARE dan Tambahkan tabel ke bagikan.
Dukungan untuk streaming dengan Delta Sharing saham
Spark Structured Streaming sekarang berfungsi dengan format deltasharing pada tabel Delta Sharing sumber yang sudah dibagikan menggunakan WITH HISTORY.
Versi tabel yang menggunakan cap waktu sekarang sudah didukung untuk tabel Delta Sharing di dalam katalog.
Sekarang Anda dapat menggunakan sintaks TIMESTAMP AS OF SQL dalam SELECT pernyataan untuk menentukan versi tabel Berbagi Delta yang dipasang dalam katalog. Tabel harus dibagikan menggunakan WITH HISTORY.
Dukungan untuk "WHEN NOT MATCHED BY SOURCE" untuk MERGE INTO
Sekarang Anda dapat menambahkan WHEN NOT MATCHED BY SOURCE klausa untuk MERGE INTO memperbarui atau menghapus baris dalam tabel yang dipilih yang tidak memiliki kecocokan dalam tabel sumber berdasarkan kondisi penggabungan. Klausa baru tersedia di SQL, Python, Scala, dan Java. Lihat MERGE INTO.
Pengumpulan statistik yang dioptimalkan untuk CONVERT TO DELTA
Pengumpulan statistik untuk CONVERT TO DELTA operasi sekarang jauh lebih cepat. Ini mengurangi jumlah beban kerja yang mungkin digunakan NO STATISTICS untuk efisiensi.
Dukungan Unity Catalog untuk memulihkan tabel yang dihapus
Fitur ini awalnya dirilis di Pratinjau Umum. Ini sudah menjadi status GA sejak 25 Oktober 2023.
Anda sekarang dapat mengembalikan tabel terkelola atau eksternal yang telah dihapus dalam skema yang ada, dalam waktu tujuh hari setelah penghapusan. Lihat UNDROP dan SHOW TABLES DROPPED.
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- filelock dari 3.8.0 hingga 3.8.2
- platformdirs dari versi 2.5.4 hingga versi 2.6.0
- setuptools dari 58.0.4 hingga 61.2.0
- Pustaka R yang ditingkatkan:
- Pustaka Java yang ditingkatkan:
- io.delta.delta-sharing-spark_2.12 dari 0.5.2 hingga 0.6.2
- org.apache.hive.hive-storage-api dari 2.7.2 hingga 2.8.1
- org.apache.parquet.parquet-column dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.apache.parquet.parquet-common dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures dari 1.12.3-databricks-0001 hingga 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.tukaani.xz dari 1.8 hingga 1.9
Apache Spark
Databricks Runtime 12.1 menyertakan Apache Spark 3.3.1. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 12.0 (EoS), serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:
- [SPARK-41405] [SC-119769][12.1.0] Kembali "[SC-119411][sql] Centralize the column resolution logic" and "[SC-117170][spark-41338][SQL] Resolve outer references and normal columns in the same analyzer batch"
- [SPARK-41405] [SC-119411][sql] Sentralisasi logika resolusi kolom
- [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand harus mengatur bendera penimpaan dengan benar
- [SPARK-41659] [SC-119526][connect][12.X] Aktifkan doktor di pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][sql] Perbaiki regresi kinerja pembaca ORC karena fitur nilai DEFAULT
- [SPARK-41807] [SC-119399][core] Hapus kelas kesalahan yang tidak ada: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
- [SPARK-41578] [12.x][sc-119273][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][connect] Menyimpulkan nama dari daftar kamus di SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Memindahkan dokumentasi dan skrip Spark Connect ke dokumentasi dev/ dan Python
- [SPARK-41534] [SC-119456][connect][SQL][12.x] Menyiapkan modul klien awal untuk Spark Connect
- [SPARK-41365] [SC-118498][ui][3.3] Halaman UI tahapan gagal dimuat untuk proksi di lingkungan benang tertentu
-
[SPARK-41481] [SC-118150][core][SQL] Gunakan
INVALID_TYPED_LITERALKembali alih-alih_LEGACY_ERROR_TEMP_0020 - [SPARK-41049] [SC-119305][sql] Meninjau kembali penanganan ekspresi stateful
-
[SPARK-41726] [SC-119248][sql] Remove
OptimizedCreateHiveTableAsSelectCommand -
[SPARK-41271] [SC-118648][sc-118348][SQL] Dukungan kueri SQL berparameter oleh
sql() -
[SPARK-41066] [SC-119344][connect][PYTHON] Mengimplementasikan
DataFrame.sampleBydanDataFrame.stat.sampleBy - [SPARK-41407] [SC-119402][sc-119012][SQL][semua tes] Tarik keluar penulisan v1 ke WriteFiles
-
[SPARK-41565] [SC-118868][sql] Tambahkan kelas kesalahan
UNRESOLVED_ROUTINE - [SPARK-41668] [SC-118925][sql] FUNGSI DECODE mengembalikan hasil yang salah ketika diteruskan NULL
- [SPARK-41554] [SC-119274] perbaikan perubahan skala Desimal ketika skala menurun oleh m...
-
[SPARK-41065] [SC-119324][connect][PYTHON] Implement and
DataFrame.freqItemsDataFrame.stat.freqItems - [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Uji dokumen yang dapat diperpanjang dan tambahkan alias kolom yang hilang ke count()
-
[SPARK-41069] [SC-119310][connect][PYTHON] Menerapkan
DataFrame.approxQuantiledanDataFrame.stat.approxQuantile -
[SPARK-41809] [SC-119367][connect][PYTHON] Buat fungsi
from_jsonmendukung DataType Schema -
[SPARK-41804] [SC-119382][sql] Pilih ukuran elemen yang benar untuk
InterpretedUnsafeProjectionarray UDT - [SPARK-41786] [SC-119308][connect][PYTHON] Menghapus duplikasi fungsi bantu
-
[SPARK-41745] [SC-119378][spark-41789][12.X] Buat
createDataFramedaftar dukungan Baris - [SPARK-41344] [SC-119217][sql] Buat kesalahan lebih jelas ketika tabel tidak ditemukan di katalog SupportsCatalogOptions
-
[SPARK-41803] [SC-119380][connect][PYTHON] Tambahkan fungsi yang hilang
log(arg1, arg2) - [SPARK-41808] [SC-119356][connect][PYTHON] Membuat opsi dukungan fungsi JSON
-
[SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Buat
__getitem__filter dukungan dan pilih - [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Membuat operasi kolom mendukung None
- [SPARK-41440] [SC-119279][connect][PYTHON] Hindari operator cache untuk Sampel umum.
-
[SPARK-41785] [SC-119290][connect][PYTHON] Mengimplementasikan
GroupedData.mean - [SPARK-41629] [SC-119276][connect] Dukungan untuk Ekstensi Protokol dalam Relasi dan Ekspresi
-
[SPARK-41417] [SC-118000][core][SQL] Ganti nama
_LEGACY_ERROR_TEMP_0019menjadiINVALID_TYPED_LITERAL - [SPARK-41533] [SC-119342][connect][12.X] Penanganan Kesalahan yang Tepat untuk Spark Connect Server / Client
- [SPARK-41292] [SC-119357][koneksi][12.X] Mendukung Jendela di namespace pyspark.sql.window
- [SPARK-41493] [SC-119339][connect][PYTHON] Membuat opsi dukungan fungsi csv
- [SPARK-39591] [SC-118675][ss] Pelacakan Kemajuan Asinkron
-
[SPARK-41767] [SC-119337][connect][PYTHON][12.x] Mengimplementasikan
Column.{withField, dropFields} -
[SPARK-41068] [SC-119268][connect][PYTHON] Menerapkan
DataFrame.stat.corr - [SPARK-41655] [SC-119323][connect][12.X] Aktifkan doctest di pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][connect] Campurkan ClientId dalam cache SparkSession
-
[SPARK-41354] [SC-119194][connect] Tambahkan
RepartitionByExpressionke proto -
[SPARK-41784] [SC-119289][connect][PYTHON] Tambahkan elemen yang hilang
__rmod__pada Kolom - [SPARK-41778] [SC-119262][sql] Tambahkan alias "reduce" ke ArrayAggregate
-
[SPARK-41067] [SC-119171][connect][PYTHON] Mengimplementasikan
DataFrame.stat.cov - [SPARK-41764] [SC-119216][connect][PYTHON] Menjadikan nama operasi string internal konsisten dengan FunctionRegistry
- [SPARK-41734] [SC-119160][connect] Tambahkan pesan induk untuk Katalog
- [SPARK-41742] [SC-119263] Mendukung df.groupBy().agg({"*":"count"})
-
[SPARK-41761] [SC-119213][connect][PYTHON] Memperbaiki operasi aritmetika:
__neg__,__pow__,__rpow__ -
[SPARK-41062] [SC-118182][sql] Ganti nama
UNSUPPORTED_CORRELATED_REFERENCEmenjadiCORRELATED_REFERENCE - [SPARK-41751] [SC-119211][connect][PYTHON] Perbaikan
-
[SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implement
unwrap_udtfunction -
[SPARK-41333] [SC-119195][spark-41737] Implement
GroupedData.{min, max, avg, sum} -
[SPARK-41751] [SC-119206][connect][PYTHON] Memperbaiki
Column.{bitwiseAND, bitwiseOR, bitwiseXOR} - [SPARK-41631] [SC-101081][sql] Mendukung resolusi alias kolom lateral implisit pada fungsi agregasi
- [SPARK-41529] [SC-119207][connect][12.X] Menerapkan SparkSession.stop
-
[SPARK-41729] [SC-119205][core][SQL][12.x] Ganti nama
_LEGACY_ERROR_TEMP_0011menjadiUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES - [SPARK-41717] [SC-119078][connect][12.X] Menghilangkan Duplikasi Cetak dan repr_html di LogicalPlan
-
[SPARK-41740] [SC-119169][connect][PYTHON] Mengimplementasikan
Column.name - [SPARK-41733] [SC-119163][sql][SS] Terapkan pemangkasan berbasis pola pohon untuk aturan ResolveWindowTime
- [SPARK-41732] [SC-119157][sql][SS] Terapkan pemangkasan berbasis pola pohon untuk aturan SessionWindowing
- [SPARK-41498] [SC-119018] Menyebarkan metadata melalui Union
- [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Terapkan pengakses kolom
-
[SPARK-41736] [SC-119161][connect][PYTHON]
pyspark_types_to_proto_typesharus mendukungArrayType -
[SPARK-41473] [SC-119092][connect][PYTHON] Mengimplementasikan fungsi
format_number - [SPARK-41707] [SC-119141][connect][12.X] Implement Catalog API in Spark Connect
-
[SPARK-41710] [SC-119062][connect][PYTHON] Implementasi
Column.between - [SPARK-41235] [SC-119088][sql][PYTHON]Fungsi urutan tinggi: implementasi array_compact
-
[SPARK-41518] [SC-118453][sql] Tetapkan nama ke kelas kesalahan
_LEGACY_ERROR_TEMP_2422 -
[SPARK-41723] [SC-119091][connect][PYTHON] Menerapkan fungsi
sequence - [SPARK-41703] [SC-119060][connect][PYTHON] Gabungkan NullType dan typed_null dalam Literal
- [SPARK-41722] [SC-119090][connect][PYTHON] Terapkan 3 fungsi jendela waktu yang hilang
- [SPARK-41503] [SC-119043][connect][PYTHON] Implementasi Fungsi Transformasi Partisi
- [SPARK-41413] [SC-118968][sql] Hindari shuffle di Storage-Partitioned Join saat kunci partisi tidak cocok, tetapi ekspresi join kompatibel
-
[SPARK-41700] [SC-119046][connect][PYTHON] Remove
FunctionBuilder -
[SPARK-41706] [SC-119094][connect][PYTHON]
pyspark_types_to_proto_typesharus mendukungMapType - [SPARK-41702] [SC-119049][connect][PYTHON] Tambahkan operasi kolom yang tidak valid
- [SPARK-41660] [SC-118866][sql] Hanya sebarkan kolom metadata jika digunakan
- [SPARK-41637] [SC-119003][sql] ORDER BY ALL
- [SPARK-41513] [SC-118945][sql] Terapkan akumulator untuk mengumpulkan metrik jumlah baris dari setiap mapper
- [SPARK-41647] [SC-119064][connect][12.X] Menghapus duplikasi docstring di pyspark.sql.connect.functions
-
[SPARK-41701] [SC-119048][connect][PYTHON] Memberikan dukungan operasi kolom
decimal -
[SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implement
rollup,cubedanpivot - [SPARK-41635] [SC-118944][sql] GROUP BY ALL
- [SPARK-41645] [SC-119057][connect][12.X] Mereduksi duplikasi docstring di pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][connect][PYTHON] Pindahkan Ekspresi ke expressions.py
- [SPARK-41687] [SC-118949][connect] Menghapus duplikasi docstring di pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][connect] Deduplicate docstrings pada pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][Koneksi] Memisahkan GroupedData ke file group.py
-
[SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementasikan
Windowfungsi -
[SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Buat dukungan operasi Kolom
datetime - [SPARK-41672] [SC-118929][connect][PYTHON] Aktifkan fungsi yang tidak digunakan lagi
-
[SPARK-41673] [SC-118932][connect][PYTHON] Mengimplementasikan
Column.astype -
[SPARK-41364] [SC-118865][connect][PYTHON] Mengimplementasikan fungsi
broadcast - [SPARK-41648] [SC-118914][connect][12.X] Menghapus duplikasi docstring di pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][connect][12.X] Deduplikasi docstring di pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][connect][12.X] Menghilangkan duplikasi docstring di pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Terapkan fungsi Lambda lainnya
- [SPARK-41441] [SC-118557][sql] Dukungan Hasilkan tanpa output anak yang diperlukan untuk menghosting referensi luar
- [SPARK-41669] [SC-118923][sql] Pemangkasan awal pada canCollapseExpressions
- [SPARK-41639] [SC-118927][sql][PROTOBUF] : Hapus ScalaReflectionLock dari SchemaConverters
-
[SPARK-41464] [SC-118861][connect][PYTHON] Implementasi
DataFrame.to -
[SPARK-41434] [SC-118857][connect][PYTHON] Implementasi awal
LambdaFunction - [SPARK-41539] [SC-118802][sql] Memetakan ulang statistik dan kendala terhadap keluaran dalam rencana logis untuk LogicalRDD
- [SPARK-41396] [SC-118786][sql][PROTOBUF] Dukungan lapangan OneOf dan pemeriksaan rekursi
- [SPARK-41528] [SC-118769][connect][12.X] Gabungkan namespace Spark Connect dan PySpark API
- [SPARK-41568] [SC-118715][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1236
-
[SPARK-41440] [SC-118788][connect][PYTHON] Mengimplementasikan
DataFrame.randomSplit - [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Tambahkan Spark Connect dan protobuf ke dalam setup.py dengan menentukan dependensi
- [SPARK-27561] [SC-101081][12.x][SQL] Mendukung resolusi alias kolom lateral implisit pada Project
-
[SPARK-41535] [SC-118645][sql] Atur null dengan benar untuk bidang interval kalender di
InterpretedUnsafeProjectiondanInterpretedMutableProjection - [SPARK-40687] [SC-118439][sql] Mendukung fungsi bawaan masking data 'mask'
- [SPARK-41520] [SC-118440][sql] Memisahkan TreePattern AND_OR menjadi TreePattern AND dan TreePattern OR
- [SPARK-41349] [SC-118668][connect][PYTHON] Mengimplementasikan DataFrame.hint
-
[SPARK-41546] [SC-118541][connect][PYTHON]
pyspark_types_to_proto_typesharus mendukung StructType. -
[SPARK-41334] [SC-118549][connect][PYTHON] Pindahkan
SortOrderproto dari relasi ke ekspresi - [SPARK-41387] [SC-118450][ss] Menegaskan offset akhir saat ini dari sumber data Kafka untuk Trigger.AvailableNow
-
[SPARK-41508] [SC-118445][core][SQL] Ganti nama
_LEGACY_ERROR_TEMP_1180menjadiUNEXPECTED_INPUT_TYPEdan hapus_LEGACY_ERROR_TEMP_1179 -
[SPARK-41319] [SC-118441][connect][PYTHON] Mengimplementasikan Column.{when, otherwise} dan Function
whendenganUnresolvedFunction - [SPARK-41541] [SC-118460][sql] Perbaiki panggilan ke metode anak yang salah di SQLShuffleWriteMetricsReporter.decRecordsWritten()
-
[SPARK-41453] [SC-118458][connect][PYTHON] Implement
DataFrame.subtract - [SPARK-41248] [SC-118436][sc-118303][SQL] Tambahkan "spark.sql.json.enablePartialResults" untuk mengaktifkan/menonaktifkan hasil parsial JSON
- [SPARK-41437] Kembalikan "[SC-117601][sql] Jangan optimalkan kueri input dua kali untuk fallback tulis v1"
- [SPARK-41472] [SC-118352][connect][PYTHON] Terapkan fungsi string/biner lainnya
-
[SPARK-41526] [SC-118355][connect][PYTHON] Mengimplementasikan
Column.isin - [SPARK-32170] [SC-118384] [CORE] Tingkatkan spekulasi melalui metrik tugas tahapan.
- [SPARK-41524] [SC-118399][ss] Membedakan SQLConf dan extraOptions di StateStoreConf karena penggunaannya di RocksDBConf
- [SPARK-41465] [SC-118381][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][sql] Dukungan LongToUnsafeRowMap mengabaikanKunciDuplikat
-
[SPARK-41409] [SC-118302][core][SQL] Ganti nama
_LEGACY_ERROR_TEMP_1043menjadiWRONG_NUM_ARGS.WITHOUT_SUGGESTION -
[SPARK-41438] [SC-118344][connect][PYTHON] Mengimplementasikan
DataFrame.colRegex - [SPARK-41437] [SC-117601][sql] Jangan mengoptimalkan kueri input dua kali untuk penulisan fallback v1
-
[SPARK-41314] [SC-117172][sql] Tetapkan nama ke kelas kesalahan
_LEGACY_ERROR_TEMP_1094 - [SPARK-41443] [SC-118004][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][connect][PYTHON] Refactor LiteralExpression untuk mendukung DataType
- [SPARK-41448] [SC-118046] Membuat ID pekerjaan MR yang konsisten di FileBatchWriter dan FileFormatWriter
- [SPARK-41456] [SC-117970][sql] Meningkatkan performa try_cast
-
[SPARK-41495] [SC-118125][connect][PYTHON] Implementasi
collectionfungsi: P~Z - [SPARK-41478] [SC-118167][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][sql] Refaktor pesan kesalahan untuk
NUM_COLUMNS_MISMATCHagar lebih umum -
[SPARK-41404] [SC-118016][sql] Refaktor
ColumnVectorUtils#toBatchuntuk membuatColumnarBatchSuite#testRandomRowspengujian dataType yang lebih primitif - [SPARK-41468] [SC-118044][sql] Memperbaiki penanganan PlanExpression dalam EquivalentExpressions
- [SPARK-40775] [SC-118045][sql] Perbaiki entri deskripsi duplikat untuk pemindaian file V2
- [SPARK-41492] [SC-118042][connect][PYTHON] Menerapkan fungsi MISC
- [SPARK-41459] [SC-118005][sql] perbaiki output log operasi pada server thrift yang kosong
-
[SPARK-41395] [SC-117899][sql]
InterpretedMutableProjectionharus digunakansetDecimaluntuk mengatur nilai null untuk desimal dalam baris yang tidak aman - [SPARK-41376] [SC-117840][core][3.3] Perbaiki logika pemeriksaan Netty preferDirectBufs saat eksekutor dimulai
-
[SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Menerapkan fungsi
collection: E~M -
[SPARK-41389] [SC-117426][core][SQL] Gunakan
WRONG_NUM_ARGSkembali alih-alih_LEGACY_ERROR_TEMP_1044 - [SPARK-41462] [SC-117920][sql] Jenis tanggal dan cap waktu dapat diubah menjadi TimestampNTZ
-
[SPARK-41435] [SC-117810][sql] Ubah untuk memanggil
invalidFunctionArgumentsErrorpadacurdate()ketikaexpressionstidak kosong - [SPARK-41187] [SC-118030][core] LiveExecutor MemoryLeak di AppStatusListener saat ExecutorLost terjadi
- [SPARK-41360] [SC-118083][core] Hindari pendaftaran ulang BlockManager jika eksekutor telah hilang
- [SPARK-41378] [SC-117686][sql] Statistik Kolom Dukungan di DS v2
- [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Mengambil alih prettyName dari StringDecode
- [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Menerapkan fungsi tanggal/tanda waktu
- [SPARK-41329] [SC-117975][connect] Mengatasi impor melingkar di Spark Connect
- [SPARK-41477] [SC-118025][connect][PYTHON] Dengan benar menyimpulkan jenis data bilangan bulat literal
-
[SPARK-41446] [SC-118024][connect][PYTHON][12.x] Membuat
createDataFrameskema dukungan dan jenis himpunan data input lainnya - [SPARK-41475] [SC-117997][connect] Memperbaiki kesalahan perintah lint-scala dan kesalahan pengetikan
- [SPARK-38277] [SC-117799][ss] Clear write batch setelah penerapan penyimpanan status RocksDB
- [SPARK-41375] [SC-117801][ss] Hindari KafkaSourceOffset terbaru yang kosong
-
[SPARK-41412] [SC-118015][connect] Mengimplementasikan
Column.cast -
[SPARK-41439] [SC-117893][connect][PYTHON] Implementasikan
DataFrame.meltdanDataFrame.unpivot - [SPARK-41399] [SC-118007][sc-117474][CONNECT] Uji terkait kolom refaktor ke test_connect_column
- [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Kolom harus mendukung != operator
- [SPARK-40697] [SC-117806][sc-112787][SQL] Tambahkan karakter padding pada proses pembacaan untuk menutupi file data eksternal.
- [SPARK-41349] [SC-117594][connect][12.X] Melaksanakan DataFrame.hint
- [SPARK-41338] [SC-117170][sql] Menyelesaikan referensi eksternal dan kolom normal dalam batch analisis yang sama
-
[SPARK-41436] [SC-117805][connect][PYTHON] Implementasi
collectionfungsi: A~C - [SPARK-41445] [SC-117802][connect] Mengimplementasikan DataFrameReader.parquet
-
[SPARK-41452] [SC-117865][sql]
to_charharus mengembalikan null saat format bernilai null - [SPARK-41444] [SC-117796][connect] Dukungan untuk read.json()
- [SPARK-41398] [SC-117508][sql] Luangkan batasan pada Storage-Partitioned Gabung saat kunci partisi setelah pemfilteran runtime tidak cocok
-
[SPARK-41228] [SC-117169][sql] Ganti Nama & Tingkatkan pesan kesalahan untuk
COLUMN_NOT_IN_GROUP_BY_CLAUSE. -
[SPARK-41381] [SC-117593][connect][PYTHON] Mengimplementasikan fungsi
count_distinctdansum_distinct - [SPARK-41433] [SC-117596][connect] Membuat Ukuran Batch Maks Arrow dapat dikonfigurasi
- [SPARK-41397] [SC-117590][connect][PYTHON] Terapkan bagian dari fungsi string/biner
-
[SPARK-41382] [SC-117588][connect][PYTHON] Implementasikan fungsi
product -
[SPARK-41403] [SC-117595][connect][PYTHON] Mengimplementasikan
DataFrame.describe - [SPARK-41366] [SC-117580][connect] DF.groupby.agg() harus kompatibel
- [SPARK-41369] [SC-117584][connect] Tambahkan sambungkan umum ke jar berbayang server
- [SPARK-41411] [SC-117562][ss] Watermark Operator Multi-Stateful mendukung perbaikan bug
- [SPARK-41176] [SC-116630][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Menerapkan fungsi agregasi
- [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Menerapkan fungsi normal
- [SPARK-41305] [SC-117411][connect] Tingkatkan Dokumentasi untuk Proto Perintah
- [SPARK-41372] [SC-117427][connect][PYTHON] Implementasikan DataFrame TempView
- [SPARK-41379] [SC-117420][ss][PYTHON] Sediakan sesi Spark yang dikloning di DataFrame dalam fungsi pengguna untuk sink foreachBatch di PySpark
- [SPARK-41373] [SC-117405][sql][ERROR] Ganti nama CAST_WITH_FUN_SUGGESTION menjadi CAST_WITH_FUNC_SUGGESTION
-
[SPARK-41358] [SC-117417][sql] Metode refaktor
ColumnVectorUtils#populateuntuk digunakanPhysicalDataTypealih-alihDataType - [SPARK-41355] [SC-117423][sql] Solusi untuk masalah validasi nama tabel hive
-
[SPARK-41390] [SC-117429][sql] Perbarui skrip yang digunakan untuk menghasilkan
registerfungsi diUDFRegistration -
[SPARK-41206] [SC-117233][sc-116381][SQL] Ganti nama kelas
_LEGACY_ERROR_TEMP_1233kesalahan menjadiCOLUMN_ALREADY_EXISTS - [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Menerapkan fungsi matematika
- [SPARK-40970] [SC-117308][connect][PYTHON] Mendukung Daftar[Kolom] untuk argumen 'on' dari join
- [SPARK-41345] [SC-117178][connect] Tambahkan Petunjuk ke Hubungkan Proto
- [SPARK-41226] [SC-117194][sql][12.x] Jenis Refaktor Spark dengan memperkenalkan jenis fisik
- [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Tambahkan dukungan dasar untuk DataFrameWriter
- [SPARK-41347] [SC-117173][connect] Tambahkan Cast ke ekspresi proto
- [SPARK-41323] [SC-117128][sql] Dukungan skema_saat_ini
- [SPARK-41339] [SC-117171][sql] Tutup dan buat ulang batch tulis RocksDB alih-alih hanya membersihkan
- [SPARK-41227] [SC-117165][connect][PYTHON] Implementasikan gabungan silang DataFrame
-
[SPARK-41346] [SC-117176][connect][PYTHON] Mengimplementasikan fungsi
ascdandesc - [SPARK-41343] [SC-117166][connect] Pindahkan penguraian FunctionName ke sisi server
- [SPARK-41321] [SC-117163][connect] Mendukung bidang target untuk UnresolvedStar
-
[SPARK-41237] [SC-117167][sql] Gunakan kembali kelas
UNSUPPORTED_DATATYPEkesalahan untuk_LEGACY_ERROR_TEMP_0030 -
[SPARK-41309] [SC-116916][sql] Gunakan
INVALID_SCHEMA.NON_STRING_LITERALKembali alih-alih_LEGACY_ERROR_TEMP_1093 -
[SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Optimalkan penggunaan konstruktor
StructType - [SPARK-41335] [SC-117135][connect][PYTHON] Dukungan IsNull dan IsNotNull di Kolom
-
[SPARK-41332] [SC-117131][connect][PYTHON] Memperbaiki
nullOrderingdalamSortOrder - [SPARK-41325] [SC-117132][connect][12.X] Perbaiki avg() yang hilang untuk GroupBy di DF
-
[SPARK-41327] [SC-117137][core] Memperbaiki
SparkStatusTracker.getExecutorInfosdengan mengaktifkan/mematikan informasi memori OnHeap/OffHeap -
[SPARK-41315] [SC-117129][connect][PYTHON] Melaksanakan
DataFrame.replacedanDataFrame.na.replace - [SPARK-41328] [SC-117125][connect][PYTHON] Tambahkan API logis dan string ke Kolom
-
[SPARK-41331] [SC-117127][connect][PYTHON] Tambahkan
orderBydandrop_duplicates -
[SPARK-40987] [SC-117124][core]
BlockManager#removeBlockInternalharus memastikan penguncian terbuka dengan mulus dan benar. - [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Melakukan refactoring pada "Column" untuk mendukung kompatibilitas API.
- [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Menerapkan DataFrame.withColumnRenamed
-
[SPARK-41221] [SC-116607][sql] Tambahkan kelas kesalahan
INVALID_FORMAT - [SPARK-41272] [SC-116742][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][sql] Gunakan
INVALID_SCHEMAKembali alih-alih_LEGACY_ERROR_TEMP_1227 - [SPARK-41260] [SC-116880][python][SS][12.x] Mengonversi instance NumPy ke tipe primitif Python dalam pembaruan GroupState
-
[SPARK-41174] [SC-116609][core][SQL] Menyebarkan kelas kesalahan kepada pengguna karena tidak valid
formatto_binary() - [SPARK-41264] [SC-116971][connect][PYTHON] Membuat dukungan Literal lebih banyak jenis data
- [SPARK-41326] [SC-116972] [SAMBUNGKAN] Memperbaiki deduplicasi tidak memiliki input
- [SPARK-41316] [SC-116900][sql] Aktifkan rekursi ekor sedapat mungkin
- [SPARK-41297] [SC-116931] [KONEKSI] [PYTHON] Mendukung Ekspresi String dalam pemfilteran.
- [SPARK-41256] [SC-116932][sc-116883][CONNECT] Menerapkan DataFrame.denganKolom(kolom)
- [SPARK-41182] [SC-116632][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][sql] Memigrasikan kesalahan opsi peta ke kelas kesalahan
- [SPARK-40940] [SC-115993][12.x] Hapus pemeriksa operator multi-stateful untuk kueri streaming.
- [SPARK-41310] [SC-116885][connect][PYTHON] Mengimplementasikan DataFrame.toDF
- [SPARK-41179] [SC-116631][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][sql] BHJ LeftAnti tidak memperbarui numOutputRows ketika codegen dinonaktifkan
-
[SPARK-41148] [SC-116878][connect][PYTHON] Mengimplementasikan
DataFrame.dropnadanDataFrame.na.drop -
[SPARK-41217] [SC-116380][sql] Tambahkan kelas kesalahan
FAILED_FUNCTION_CALL - [SPARK-41308] [SC-116875][connect][PYTHON] Meningkatkan DataFrame.count()
- [SPARK-41301] [SC-116786] [CONNECT] Menyamakan Perilaku untuk SparkSession.range()
- [SPARK-41306] [SC-116860][connect] Meningkatkan dokumentasi proto Connect Expression
- [SPARK-41280] [SC-116733][connect] Mengimplementasikan DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] Skema yang belum ditetapkan ditafsirkan sebagai Skema
- [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Ganti Nama RemoteSparkSession
- [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas tidak boleh mengembalikan dataframe pandas yang bersifat opsional
-
[SPARK-41291] [SC-116738][connect][PYTHON]
DataFrame.explainharus mencetak dan mengembalikan None. - [SPARK-41278] [SC-116732][connect] Membersihkan QualifiedAttribute yang tidak digunakan di Expression.proto
- [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Hapus basis konversi koleksi berlebihan pada kode Scala 2.13
- [SPARK-41261] [SC-116718][python][SS] Perbaiki masalah untuk applyInPandasWithState ketika kolom kunci pengelompokan tidak ditempatkan secara berurutan sejak awal
- [SPARK-40872] [SC-116717][3.3] Fallback ke blok acak asli ketika potongan acak yang digabungkan dorong berukuran nol
- [SPARK-41114] [SC-116628][connect] Mendukung data lokal untuk LocalRelation
-
[SPARK-41216] [SC-116678][connect][PYTHON] Implementasikan
DataFrame.{isLocal, isStreaming, printSchema, inputFiles} - [SPARK-41238] [SC-116670][connect][PYTHON] Mendukung lebih banyak jenis data bawaan
-
[SPARK-41230] [SC-116674][connect][PYTHON] Hapus
strdari jenis ekspresi agregat - [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Implementasi pengumpulan berbasis Panah yang Dioptimalkan untuk mengalirkan dari server ke klien
- [SPARK-41222] [SC-116625][connect][PYTHON] Menyatukan definisi pengetikan
- [SPARK-41225] [SC-116623] [SAMBUNGKAN] [PyTHON] Nonaktifkan fungsi yang tidak didukung.
-
[SPARK-41201] [SC-116526][connect][PYTHON] Implementasi
DataFrame.SelectExprdi klien Python - [SPARK-41203] [SC-116258] [CONNECT] Mendukung Dataframe.transform di klien Python.
-
[SPARK-41213] [SC-116375][connect][PYTHON] Implementasi
DataFrame.__repr__danDataFrame.dtypes -
[SPARK-41169] [SC-116378][connect][PYTHON] Mengimplementasikan
DataFrame.drop - [SPARK-41172] [SC-116245][sql] Memigrasikan kesalahan ref ambigu ke kelas kesalahan
- [SPARK-41122] [SC-116141][connect] Explain API dapat mendukung mode yang berbeda
- [SPARK-41209] [SC-116584][sc-116376][PYTHON] Meningkatkan inferensi jenis PySpark dalam metode _merge_type
- [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogenisasi versi protobuf di seluruh server Spark connect untuk menggunakan versi utama yang sama.
- [SPARK-35531] [SC-116409][sql] Memperbarui statistik tabel hive tanpa konversi yang tidak perlu
- [SPARK-41154] [SC-116289][sql] Penembolokan relasi yang salah untuk kueri dengan spesifikasi perjalanan waktu
-
[SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implement
DataFrame.isEmpty -
[SPARK-41135] [SC-116400][sql] Ganti nama
UNSUPPORTED_EMPTY_LOCATIONmenjadiINVALID_EMPTY_LOCATION - [SPARK-41183] [SC-116265][sql] Tambahkan API ekstensi untuk melakukan normalisasi rencana untuk penembolokan
- [SPARK-41054] [SC-116447][ui][CORE] Mendukung RocksDB sebagai KVStore di antarmuka pengguna langsung
- [SPARK-38550] [SC-115223]Kembali "[SQL][core] Gunakan penyimpanan berbasis disk untuk menyimpan lebih banyak informasi debug untuk antarmuka pengguna langsung"
-
[SPARK-41173] [SC-116185][sql] Keluarkan
require()dari konstruktor ekspresi string - [SPARK-41188] [SC-116242][core][ML] Atur executorEnv OMP_NUM_THREADS menjadi spark.task.cpus secara default untuk proses JVM pelaksana spark
-
[SPARK-41130] [SC-116155][sql] Ganti nama
OUT_OF_DECIMAL_TYPE_RANGEmenjadiNUMERIC_OUT_OF_SUPPORTED_RANGE - [SPARK-41175] [SC-116238][sql] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][sql] Kurangi konversi koleksi saat membuat AttributeMap
-
[SPARK-41139] [SC-115983][sql] Meningkatkan kelas kesalahan:
PYTHON_UDF_IN_ON_CLAUSE - [SPARK-40657] [SC-115997][protobuf] Memerlukan bayangan untuk jar kelas Java, meningkatkan penanganan kesalahan
- [SPARK-40999] [SC-116168] Penyebaran petunjuk ke subkueri
- [SPARK-41017] [SC-116054][sql] Mendukung pemangkasan kolom dengan beberapa filter yang bersifat nondeterministik
- [SPARK-40834] [SC-114773][sql] Gunakan SparkListenerSQLExecutionEnd untuk melacak status SQL akhir di UI
-
[SPARK-41118] [SC-116027][sql]
to_number/try_to_numberharus mengembalikannullketika formatnya adalahnull - [SPARK-39799] [SC-115984][sql] DataSourceV2: Lihat antarmuka katalog
- [SPARK-40665] [SC-116210][sc-112300][CONNECT] Hindari penyematan Spark Connect dalam rilis biner Apache Spark
- [SPARK-41048] [SC-116043][sql] Meningkatkan partisi dan pemesanan output dengan cache AQE
- [SPARK-41198] [SC-116256][ss] Perbaiki metrik dalam kueri streaming yang memiliki sumber streaming CTE dan DSv1
- [SPARK-41199] [SC-116244][ss] Perbaiki masalah metrik saat sumber streaming DSv1 dan sumber streaming DSv2 digunakan bersama
- [SPARK-40957] [SC-116261][sc-114706] Tambahkan cache memori di HDFSMetadataLog
- [SPARK-40940] Kembalikan "[SC-115993] Hapus pemeriksa operator Multi-stateful untuk kueri streaming."
-
[SPARK-41090] [SC-116040][sql] Throw Exception untuk
db_name.view_namesaat membuat tampilan sementara oleh Dataset API -
[SPARK-41133] [SC-116085][sql] Integrasikan
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISIONkeNUMERIC_VALUE_OUT_OF_RANGE - [SPARK-40557] [SC-116182][sc-111442][CONNECT] Pembuangan Kode 9 Komit
- [SPARK-40448] [SC-114447][sc-111314][CONNECT] Bangun Spark Connect sebagai Plugin Driver dengan Dependensi yang Dilindungi
- [SPARK-41096] [SC-115812][sql] Mendukung membaca jenis FIXED_LEN_BYTE_ARRAY parquet
-
[SPARK-41140] [SC-115879][sql] Ganti nama kelas
_LEGACY_ERROR_TEMP_2440kesalahan menjadiINVALID_WHERE_CONDITION - [SPARK-40918] [SC-114438][sql] Ketidakcocokan antara FileSourceScanExec dan Orc dan ParquetFileFormat dalam menghasilkan output kolom
- [SPARK-41155] [SC-115991][sql] Tambahkan pesan kesalahan ke SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Hapus pemeriksa operator multi-stateful untuk kueri streaming.
-
[SPARK-41098] [SC-115790][sql] Ganti nama
GROUP_BY_POS_REFERS_AGG_EXPRmenjadiGROUP_BY_POS_AGGREGATE - [SPARK-40755] [SC-115912][sql] Migrasi jenis memeriksa kegagalan pemformatan angka ke kelas kesalahan
-
[SPARK-41059] [SC-115658][sql] Ganti nama
_LEGACY_ERROR_TEMP_2420menjadiNESTED_AGGREGATE_FUNCTION - [SPARK-41044] [SC-115662][sql] Konversi DATATYPE_MISMATCH.UNSPECIFIED_FRAME ke INTERNAL_ERROR
-
[SPARK-40973] [SC-115132][sql] Ganti nama
_LEGACY_ERROR_TEMP_0055menjadiUNCLOSED_BRACKETED_COMMENT
Pembaruan pemeliharaan
Lihat Pembaruan pemeliharaan Databricks Runtime 12.1.
Lingkungan sistem
- Sistem Operasi: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Danau Delta: 2.2.0
Perpustakaan Python terinstal
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| argon2-cffi | 21.3.0 | Pengikatan Argon2-cffi | 21.2.0 | asttoken | 2.0.5 |
| atribut | 21.4.0 | panggilan balik | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
| beautifulsoup4 | 4.11.1 | hitam | 22.3.0 | pemutih | 4.1.0 |
| boto3 | 1.21.32 | botocore | 1.24.32 | sertifikat | 2021.10.8 |
| cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| klik | 8.0.4 | Kriptografi | 3.4.8 | pengendara sepeda | 0.11.0 |
| Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
| penghias | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
| konversi docstring ke markdown | 0.11 | titik masuk | 0,4 | eksekusi | 0.8.3 |
| gambaran umum aspek | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
| alat pengelola font | 4.25.0 | IDNA | 3.3 | ipykernel | 6.15.3 |
| ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client (klien Jupyter) | 6.1.12 |
| jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
| matplotlib-inline (modul untuk menampilkan grafik secara inline) | 0.1.2 | Mccabe | 0.7.0 | penyetelan salah | 0.8.4 |
| ekstensi mypy | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| buku catatan | 6.4.8 | numpy (perpustakaan Python untuk operasi numerik) | 1.21.5 | pengemasan | 21.3 |
| Panda | 1.4.2 | Pandocfilters | 1.5.0 | parso | 0.8.3 |
| pathspec | 0.9.0 | kambing hitam | 0.5.2 | pexpect=4.8.0 | 4.8.0 |
| pickleshare | 0.7.5 | Bantal | 9.0.1 | pipa | 21.2.4 |
| platformdirs | 2.6.0 | plotly | 5.6.0 | pluggy | 1.0.0 |
| prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
| pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
| pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
| requests | 2.27.1 | requests-unixsocket | 0.2.0 | tali | 0.22.0 |
| s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy (perpustakaan Python untuk komputasi ilmiah) | 1.7.3 |
| Seaborn (perpustakaan Python untuk visualisasi data) | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
| Enam | 1.16.0 | alat penyaring sup | 2.3.1 | ssh-import-id | 5.10 |
| stack-data | 0.2.0 | statsmodels (paket Python untuk pemodelan statistik) | 0.13.2 | kegigihan | 8.0.1 |
| selesai | 0.13.1 | jalur uji | 0.5.0 | threadpoolctl | 2.2.0 |
| Tokenisasi-RT | 4.2.1 | tomli | 1.2.2 | Tornado | 6.1 |
| traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
| pembaruan otomatis tanpa pengawasan | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | webencodings=0.5.1 | 0.5.1 | apa itu patch | 1.0.3 |
| wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Perpustakaan R terpasang
Pustaka R diinstal dari cuplikan CRAN Microsoft pada 2022-11-11.
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| anak panah | 10.0.0 | askpass | 1.1 | pastikanbahwa | 0.2.1 |
| pemindahan fitur ke versi lama (backports) | 1.4.1 | dasar | 4.2.2 | base64enc | 0.1-3 |
| sedikit | 4.0.4 | bit-64 | 4.0.5 | blob | 1.2.3 |
| sepatu bot | 1.3-28 | menyeduh | 1,0-8 | Brio | 1.1.3 |
| sapu | 1.0.1 | bslib | 0.4.1 | cashmere | 1.0.6 |
| layanan panggilan | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
| kronogram | 2.3-58 | class | 7.3-20 | CLI | 3.4.1 |
| pemangkas | 0.8.0 | jam dinding | 0.6.1 | kluster | 2.1.4 |
| codetools | 0.2-18 | ruang warna | 2.0-3 | commonmark | 1.8.1 |
| pengkompilasi | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
| kriyon | 1.5.2 | kredensial | 1.3.2 | melengkung | 4.3.3 |
| data.table (sebuah paket untuk pengolahan data table) | 1.14.4 | kumpulan data | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.2.1 | deskripsi | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | digest | 0.6.30 | pencahayaan turun | 0.4.2 |
| dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
| elipsis | 0.3.2 | menilai | 0.18 | penggemar | 1.0.3 |
| warna-warna | 2.1.1 | pemetaan cepat | 1.1.0 | fontawesome | 0.4.0 |
| untuk kucing | 0.5.2 | foreach (pengulangan untuk setiap elemen) | 1.5.2 | asing | 0.8-82 |
| bengkel pandai besi | 0.2.0 | fs | 1.5.2 | masa depan | 1.29.0 |
| menerapkan di masa depan | 1.10.0 | kumur | 1.2.1 | obat generik | 0.1.3 |
| Gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-4 | variabel global | 0.16.1 |
| lem | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.0 | Grafik | 4.2.2 | grDevices | 4.2.2 |
| kisi | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
| gtabel | 0.3.1 | topi keras | 1.2.0 | tempat aman | 2.5.1 |
| lebih tinggi | 0,9 | HMS | 1.1.2 | htmltools | 0.5.3 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
| ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.6 | Pengiterasi | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
| Pelabelan | 0.4.2 | nanti | 1.3.0 | rangka | 0.20-45 |
| lahar | 1.7.0 | siklus hidup | 1.0.3 | listenv | 0.8.0 |
| lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
| Massa | 7.3-58 | Matrix | 1.5-1 | memosankan | 2.0.1 |
| Metode | 4.2.2 | mgcv | 1.8-41 | pantomim | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
| munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
| numDeriv | Agustus 2016 - Januari 2017 | openssl | 2.0.4 | paralel | 4.2.2 |
| secara paralel | 1.32.1 | pilar | 1.8.1 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
| plogr | 0.2.0 | plyr | 1.8.7 | apresiasi | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | ProsesX | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | Kemajuan | 1.2.2 |
| progresr | 0.11.0 | janji | 1.2.0.1 | proto | 1.0.0 |
| proksi | 0,4-27 | P.S. | 1.7.2 | menggeram lembut | 0.3.5 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
| randomForest (algoritma pembelajaran mesin) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| alat baca | 2.1.3 | readxl (membaca file Excel) | 1.4.1 | recipes | 1.0.3 |
| pertandingan ulang | 1.0.1 | pertandingan ulang 2 | 2.1.2 | pengontrol jarak jauh | 2.4.2 |
| contoh replikasi | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.2 | timbangan / sisik | 1.2.1 |
| selektor | 0,4-2 | informasi sesi | 1.2.2 | bentuk | 1.4.6 |
| mengkilap | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
| SparkR | 3.3.1 | spasial | 7.3-11 | garis lengkung | 4.2.2 |
| sqldf | 0,4-11 | SQUAREM | 2021.1 | statistik | 4.2.2 |
| statistik4 | 4.2.2 | string | 1.7.8 | stringr | 1.4.1 |
| bertahan hidup | 3.4-0 | Sistem | 3.4.1 | systemfonts | 1.0.4 |
| bahasa pemrograman Tcl/Tk | 4.2.2 | ujiitu | 3.1.5 | pemformatan teks | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | perubahan jam | 0.1.1 | TanggalWaktu | 4021.106 |
| tinytex | 0,42 | perangkat | 4.2.2 | tzdb | 0.3.0 |
| urlchecker | 1.0.1 | gunakan ini | 2.1.6 | utf8 | 1.2.2 |
| Utilitas | 4.2.2 | UUID (Pengidentifikasi Unik Universal) | 1.1-0 | vctrs | 0.5.0 |
| viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
| kumis | 0,4 | dengan | 2.5.0 | xfun | 0.34 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.6 | zip | 2.2.2 |
Pustaka Java dan Scala terinstal (versi kluster Scala 2.12)
| ID Grup | Identifikasi Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klien Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | AWS Java SDK untuk CloudHSM | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (konfigurasi SDK Java untuk AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-impor-ekspor | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-Pembelajaran Mesin | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks (SDK Java untuk OpsWorks) | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) | 1.12.189 |
| com.amazonaws | SDK Java untuk Storage Gateway AWS | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | AWS Java SDK Dukungan | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | aliran | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | bayangan-kriogenik | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.3.4 |
| com.fasterxml.jackson.core | Jackson Annotations | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.caffeine | kafein | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | inti | 1.1.2 |
| com.github.fommil.netlib | referensi_asli-java | 1.1 |
| com.github.fommil.netlib | rujukan_asli-java-natives | 1.1 |
| com.github.fommil.netlib | sistem_asli-java | 1.1 |
| com.github.fommil.netlib | native_sistem-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | jambu | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | pembuat profil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | kode_sumber_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.ning | compress-lzf (algoritma kompresi) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| koleksi umum | koleksi umum | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| unggah berkas pada commons | unggah berkas pada commons | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (perpustakaan Java untuk fungsi pencatatan) | commons-logging (perpustakaan Java untuk fungsi pencatatan) | 1.1.3 |
| kolam umum | kolam umum | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Tidak peduli | 2.2.1 |
| dev.ludovic.netlib | LAPACK | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 0,21% |
| io.delta | delta-sharing-spark_2.12 | 0.6.2 |
| io.dropwizard.metrics | inti metrik | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | pengukuran-pemeriksaan kesehatan | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrik-jmx | 4.1.1 |
| io.dropwizard.metrics | metrik-json | 4.1.1 |
| io.dropwizard.metrics | metrik-jvm | 4.1.1 |
| io.dropwizard.metrics | metrik-servlet | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | Netty Buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) | 4.1.74.Final |
| io.netty | Kelas netty-tcnative | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll (kelas transportasi netty - epoll) | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_umum | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway (gateway pendorong sederhana) | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | pengumpul | 0.12.0 |
| jakarta.anotasi | jakarta.anotasi-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | mentimun acar | 1.2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| jaring.bunga salju | snowflake-ingest-sdk | 0.9.6 |
| jaring.bunga salju | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_gabungan_semua | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | ant | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format tanda panah | 7.0.0 |
| org.apache.arrow | inti-memori-panah | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | arrow-vector | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-koleksi4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (teks umum) | 1.10.0 |
| org.apache.curator | kurator dan klien | 2.13.0 |
| org.apache.curator | kerangka kerja kurator | 2.13.0 |
| org.apache.curator | kurasi resep | 2.13.0 |
| org.apache.derby | pertandingan derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop-klien-api | 3.3.4-databricks |
| org.apache.hadoop | lingkungan kerja klien Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (antarmuka perintah untuk Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API penyimpanan hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) | 2.3.9 |
| org.apache.hive.shims | Pengatur Jadwal Hive Shims | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | tanaman anggur | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orc-shims | 1.7.6 |
| org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | anotasi penonton | 0.13.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.6.2 |
| org.apache.zookeeper | penjaga kebun binatang-jute | 3.6.2 |
| org.checkerframework | pemeriksa kualitas | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Pengompilasi Umum | 3.0.16 |
| org.codehaus.janino | Januari | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | lanjutan dermaga | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http (protokol HTTP untuk server Jetty) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Plus | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | keamanan jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Server | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Aplikasi web Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-klien | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-pemindai lokasi | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-penanda-sumber-daya | 1.0.3 |
| org.glassfish.hk2.external | aopalliance (dikemas ulang) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-inti | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | jersey biasa | 2.36 |
| org.glassfish.jersey.core | Jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | Hibernate Validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotasi | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client (klien Java untuk MariaDB) | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | pengganjal | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | antarmuka pengujian | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | tidak digunakan | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |