Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Catatan
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan dan akhir masa pakai. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 10.4 dan Databricks Runtime 10.4 Photon, didukung oleh Apache Spark 3.2.1. Photon berada pada Pratinjau Umum. Databricks merilis versi ini pada Maret 2022.
Fitur dan peningkatan baru
- Pengonversi tabel Apache Iceberg ke Delta (Pratinjau Publik)
- Pemutaran kembali Pemadatan Otomatis kini diaktifkan secara default
- Low Shuffle Merge sekarang aktif secara default
-
Tag urutan penyisipan kini dipertahankan untuk
UPDATEdanDELETE - HikariCP kini menjadi kumpulan koneksi default untuk metastore Apache Hive
- Pengaturan konektor Azure Synapse sekarang memungkinkan jumlah maksimum baris yang ditolak
- Titik pemeriksaan status asinkron sekarang tersedia secara umum
- Default parameter sekarang dapat ditentukan untuk fungsi SQL yang ditentukan pengguna
- Fungsi Spark SQL baru
- Direktori kerja baru untuk kluster Konkurensi Tinggi
- Dukungan kolom identitas dalam tabel Delta sekarang tersedia secara umum
Konverter Apache Iceberg ke tabel Delta (Pratinjau Umum)
Konversi ke Delta sekarang mendukung konversi tabel Apache Iceberg langsung menjadi tabel Delta di lokasi yang sama. Ini dilakukan dengan menggunakan metadata asli Iceberg dan manifes file. Lihat Mengonversi ke Delta Lake.
Pengembalian pemadatan otomatis kini diaktifkan secara default
Rilis ini meningkatkan perilaku untuk penulisan Delta Lake yang berkomitmen ketika ada transaksi Auto Compaction bersamaan. Sebelum rilis ini, penulisan seperti itu sering kali berhenti karena modifikasi bersamaan pada tabel. Penulisan kini akan berhasil meskipun terjadi transaksi Pemadatan Otomatis secara bersamaan.
Gabungan Penyatuan Prioritas Rendah kini diaktifkan secara bawaan
Perintah MERGE INTO kini selalu menggunakan implementasi baru untuk penataan ulang acak minimal. Ini akan meningkatkan kinerja perintah MERGE INTO secara signifikan untuk sebagian besar beban kerja. Pengaturan konfigurasi yang sebelumnya digunakan untuk mengaktifkan fitur ini telah dihapus. Lihat Low shuffle merge pada Azure Databricks.
Tag urutan penyisipan kini dipertahankan untuk UPDATE dan DELETE
Perintah UPDATE dan DELETE kini menyimpan informasi pengelompokan yang ada (termasuk Z-ordering) untuk file yang diperbarui atau dihapus. Ini merupakan pendekatan upaya terbaik dan pendekatan ini tidak berlaku untuk kasus dengan ukuran file sangat kecil, sehingga file ini digabungkan selama pembaruan atau penghapusan.
HikariCP sekarang menjadi pool koneksi metastore default untuk Apache Hive
HikariCP membawa sejumlah peningkatan stabilitas untuk akses metastore Apache Hive sembari mempertahankan koneksi yang lebih sedikit dibandingkan dengan implementasi kumpulan koneksi BoneCP sebelumnya. HikariCP diaktifkan secara default pada kluster Databricks Runtime yang menggunakan metastore Databricks Hive (misalnya, ketika spark.sql.hive.metastore.jars tidak diatur). Anda juga dapat secara eksplisit beralih ke implementasi kumpulan koneksi lainnya, misalnya BoneCP, dengan mengatur spark.databricks.hive.metastore.client.pool.type.
konektor Azure Synapse sekarang memungkinkan jumlah maksimum baris penolakan yang diizinkan untuk diatur
Konektor Azure Synapse sekarang mendukung opsi maxErrors DataFrame. Pembaruan ini memungkinkan Anda mengonfigurasi jumlah maksimum baris yang ditolak, yang diizinkan selama pembacaan dan penulisan sebelum operasi beban dibatalkan. Semua baris yang ditolak akan diabaikan. Misalnya, jika dua dari sepuluh rekaman memiliki kesalahan, hanya delapan rekaman yang akan diproses.
Opsi ini memetakan langsung ke opsi REJECT_VALUE untuk pernyataan CREATE EXTERNAL TABLE di PolyBase dan ke opsi MAXERRORS untuk perintah COPY konektor Azure Synapse.
Secara default, nilai maxErrors ditetapkan ke 0: semua catatan diharapkan valid.
Pemeriksaan titik status asinkron sekarang sudah tersedia secara umum
Anda dapat mengaktifkan pemeriksaan titik status asinkron dalam kueri streaming bersifat keadaan dengan pembaruan status yang besar. Ini dapat mengurangi latensi mikro-batch dari ujung ke ujung. Fitur ini kini tersedia secara umum. Lihat Titik pemeriksaan status asinkron untuk kueri berstatus.
Default parameter sekarang dapat ditentukan untuk fungsi SQL yang ditentukan pengguna
Saat Anda membuat fungsi yang ditentukan pengguna SQL (SQL UDF), Anda sekarang dapat menentukan ekspresi default untuk parameter SQL UDF. Anda kemudian dapat memanggil SQL UDF tanpa memberikan argumen untuk parameter tersebut, dan Databricks akan mengisi nilai default untuk parameter tersebut. Lihat CREATE FUNCTION (SQL dan Python).
Fungsi Spark SQL baru
Fungsi SQL Spark berikut kini tersedia dengan rilis ini:
-
try_multiply: Mengembalikan
multiplieryang dikalikan denganmultiplicand, atauNULLsaat meluap. -
try_subtract: Mengembalikan pengurangan
expr2dariexpr1, atauNULLsaat meluap.
Direktori kerja baru untuk kluster Konkurensi Tinggi
Pada kluster Konkurensi Tinggi dengan kontrol akses tabel atau passthrough kredensial diaktifkan, direktori kerja notebook saat ini sekarang menjadi direktori beranda pengguna. Sebelumnya, direktori kerja adalah /databricks/driver.
Dukungan kolom identitas dalam tabel Delta sekarang tersedia secara umum
Delta Lake sekarang mendukung kolom identitas. Saat Anda menulis ke tabel Delta yang menentukan kolom identitas, dan Anda tidak menyediakan nilai untuk kolom tersebut, Delta sekarang secara otomatis menetapkan nilai yang unik dan meningkat atau menurun secara statistik. Lihat CREATE TABLE [MENGGUNAKAN].
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- filelock dari 3.4.2 ke 3.6.0
- Pustaka R yang ditingkatkan:
- brew dari 1.0-6 ke 1.0-7
- broom dari versi 0.7.11 ke versi 0.7.12
- cli dari 3.1.0 ke 3.2.0
- clipr dari 0.7.1 ke 0.8.0
- Ruang warna dari versi 2.0-2 ke 2.0-3
- crayon dari 1.4.2 ke 1.5.0
- dplyr dari 1.0.7 ke 1.0.8
- dtplyr dari 1.2.0 ke 1.2.1
- Mengevaluasi dari 0.14 ke 0.15
- foreach dari versi 1.5.1 ke versi 1.5.2
- future dari 1.23.0 ke 1.24.0
- Generik dari versi 0.1.1 hingga versi 0.1.2
- glue dari 1.6.0 ke 1.6.1
- gower dari 0.2.2 ke 1.0.0
- iterators dari 1.0.13 ke 1.0.14
- jsonlite dari 1.7.3 ke 1.8.0
- magrittr dari 2.0.1 ke 2.0.2
- mgcv dari 1.8-38 ke 1.8-39
- pillar dari 1.6.4 ke 1.7.0
- randomForest dari 4.6-14 ke 4.7-1
- readr dari 2.1.1 ke 2.1.2
- resep dari 0.1.17 ke 0.2.0
- rlang dari 0.4.12 ke 1.0.1
- rpart dari 4.1-15 menjadi 4.1.16
- RSQLite dari 2.2.9 ke 2.2.10
- Pembaruan versi sparklyr dari 1.7.4 ke 1.7.5
- testthat dari 3.1.1 ke 3.1.2
- tidyr dari 1.1.4 ke 1.2.0
- tidyselect dari 1.1.1 ke 1.1.2
- tinytex dari 0.36 ke 0.37
- yaml dari 2.2.1 ke 2.3.5
- Pustaka Java yang ditingkatkan:
- io.delta.delta-sharing-spark_2.12 dari 0.3.0 hingga 0.4.0
Apache Spark
Databricks Runtime 10.4 LTS mencakup Apache Spark 3.2.1. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 10.3, serta perbaikan bug dan peningkatan tambahan berikut yang dilakukan pada Spark:
- [SPARK-38322] [SQL] Mendukung tahap kueri menampilkan statistik runtime dalam mode penjelasan yang diformat
- [SPARK-38162] [SQL] Mengoptimalkan rencana satu baris dalam Pemrosesan Normal dan AQE
- [SPARK-38229] [SQL] Seharusnya tidak memeriksa temp/external/ifNotExists dengan visitReplaceTable saat parser
- [SPARK-34183] [SS] DataSource V2: Distribusi dan pemesanan yang diperlukan dalam eksekusi batch mikro
- [SPARK-37932] [SQL] Menunggu penyelesaian atribut yang hilang sebelum menerapkan DeduplicateRelations
- [SPARK-37904] [SQL] Meningkatkan RebalancePartitions pada aturan Optimisasi
- [SPARK-38236] [SQL][3.2][3.1] Pastikan lokasi tabel mutlak dengan “new Path(locationUri).isAbsolute” dalam tabel buat/ubah
- [SPARK-38035] [SQL] Menambahkan tes docker untuk dialek JDBC bawaan
- [SPARK-38042] [SQL] Pastikan ScalaReflection.dataTypeFor berfungsi pada tipe array yang diberi alias
-
[SPARK-38273] [SQL]
decodeUnsafeRowsiterator harus menutup aliran input yang mendasar - [SPARK-38311] [SQL] Memperbaiki DynamicPartitionPruning/BucketedReadSuite/ExpressionInfoSuite dalam mode ANSI
- [SPARK-38305] [CORE] Secara eksplisit memeriksa apakah sumber berada di unpack() sebelum memanggil metode FileUtil
- [SPARK-38275] [SS] Sertakan penggunaan memori writeBatch sebagai total penggunaan memori penyimpanan status RocksDB
-
[SPARK-38132] [SQL] Menghapus aturan
NotPropagation - [SPARK-38286] [SQL] Union dapat menyebabkan maxRows dan maxRowsPerPartition meluap
- [SPARK-38306] [SQL] Memperbaiki ExplainSuite,StatisticsCollectionSuite dan StringFunctionsSuite dengan mode ANSI
- [SPARK-38281] [SQL][tests] Fix AnalysisSuite di bawah mode ANSI
- [SPARK-38307] [SQL][tests] Memperbaiki ExpressionTypeCheckingSuite dan CollectionExpressionsSuite dalam mode ANSI
-
[SPARK-38300] [SQL] Gunakan
ByteStreams.toByteArrayuntuk menyederhanakanfileToStringdanresourceToBytesdalam catalyst.util - [SPARK-38304] [SQL] Elt() harus menampilkan null jika indeks adalah null dengan mode ANSI
- [SPARK-38271] PoissonSampler dapat menghasilkan lebih banyak baris daripada MaxRows
- [SPARK-38297] [PYTHON] Mentransmisikan nilai pengembalian secara eksplisit pada DataFrame.to_numpy di POS
- [SPARK-38295] [SQL][tests] Fix ArithmeticExpressionSuite dalam mode ANSI
- [SPARK-38290] [SQL] Memperbaiki JsonSuite dan ParquetIOSuite dengan mode ANSI
-
[SPARK-38299] [SQL] Membersihkan penggunaan
StringBuilder.newBuilderyang tidak digunakan lagi - [SPARK-38060] [SQL] Mematuhi allowNonNumericNumbers saat menguraikan nilai NaN dan Infinity yang dikutip di pembaca JSON
- [SPARK-38276] [SQL] Menambahkan rencana TPCDS yang disetujui dengan mode ANSI
- [SPARK-38206] [SS] Mengabaikan nullability dalam membandingkan jenis data kunci gabungan pada gabungan stream-stream
- [SPARK-37290] [SQL] - Waktu perencanaan eksponensial dalam kasus fungsi non-deterministik
- [SPARK-38232] [SQL] Penjelasan terformat tidak mengumpulkan subkueri pada tahap kueri di AQE
- [SPARK-38283] [SQL] Menguji penguraian tanggal yang tidak valid dengan mode ANSI
- [SPARK-38140] [SQL] Statistik kolom Desc (min, maks) untuk tipe stempel waktu yang tidak konsisten dengan nilai karena perbedaan zona waktu
- [SPARK-38227] [SQL][ss] Terapkan nullabilitas ketat kolom berlapis di jendela waktu/jendela sesi
- [SPARK-38221] [SQL] Segera mengulangi ekspresi pengelompokan saat memindahkan ekspresi pengelompokan kompleks dari simpul Agregat
- [SPARK-38216] [SQL] Gagal lebih awal jika semua kolom merupakan kolom berpartisi saat membuat tabel Hive
- [SPARK-38214] [SS]Tidak perlu memfilter jendela jika windowDuration merupakan kelipatan slideDuration
- [SPARK-38182] [SQL] Memperbaiki NoSuchElementException jika filter yang didorong tidak berisi referensi
- [SPARK-38159] [SQL] Menambahkan FileSourceMetadataAttribute baru untuk Metadata File Tersembunyi
- [SPARK-38123] [SQL] Penggunaan terpadu sebagai
DataTypedaritargetType - [SPARK-38118] [SQL] Func(tipe data yang salah) dalam klausul HAVING harus melemparkan kesalahan ketidakcocokan data
- [SPARK-35173] [SQL][python] Tambahkan beberapa kolom yang menambahkan dukungan
- [SPARK-38177] [SQL] Memperbaiki transformExpressions yang salah di Pengoptimalisasi
- [SPARK-38228] [SQL] Penetapan penyimpanan legacy tidak boleh gagal pada kesalahan pada mode ANSI
- [SPARK-38173] [SQL] Kolom yang dikutip tidak dapat dikenali dengan benar ketika dikutipRegexColumnName...
- [SPARK-38130] [SQL] Menghapus pemeriksaan entri array_sort yang dapat diurut
-
[SPARK-38199] [SQL] Menghapus
dataTypeyang tidak digunakan dalam ketentuanIntervalColumnAccessor - [SPARK-38203] [SQL] Memperbaiki SQLInsertTestSuite dan SchemaPruningSuite dengan mode ANSI
-
[SPARK-38163] [SQL] Mempertahankan kelas kesalahan
SparkThrowablesaat membangun penyusun fungsi - [SPARK-38157] [SQL] Secara eksplisit mengatur ANSI ke false dalam uji timestampNTZ/timestamp.sql dan SQLQueryTestSuite agar sesuai dengan hasil emas yang diharapkan
- [SPARK-38069] [SQL][ss] Tingkatkan perhitungan jendela waktu
- [SPARK-38164] [SQL] Fungsi SQL baru: try_subtract dan try_multiply
- [SPARK-38176] [SQL] mode ANSI: mengizinkan transmisi String secara implisit ke jenis sederhana lainnya
- [SPARK-37498] [PYTHON] Menambahkan fungsionalitas 'eventually' pada test_reuse_worker_of_parallelize_range
- [SPARK-38198] [SQL][3.2] Memperbaiki penggunaan QueryExecution.debug#toFile agar menggunakan nilai maxFields yang diteruskan ketika explainMode adalah CodegenMode
- [SPARK-38131] [SQL] Menggunakan kelas kesalahan hanya dalam pengecualian yang dihadapi pengguna
- [SPARK-37652] [SQL] Menambahkan tes untuk mengoptimalkan gabungan yang menyimpang melalui penyatuan
- [SPARK-37585] [SQL] Memperbarui InputMetric dalam DataSourceRDD dengan TaskCompletionListener
- [SPARK-38113] [SQL] Menggunakan kelas kesalahan dalam kesalahan eksekusi pivoting
- [SPARK-38178] [SS] Membenarkan logika untuk mengukur penggunaan memori RocksDB
- [SPARK-37969] [SQL] HiveFileFormat harus memeriksa bidang nama
- [SPARK-37652] Mengembalikan “[SQL]Menambahkan pengujian untuk mengoptimalkan gabungan yang menyimpang melalui penyatuan”
- [SPARK-38124] [SQL][ss] Perkenalkan StatefulOpClusteredDistribution dan terapkan ke gabungan stream-stream
- [SPARK-38030] [SQL] Kanonisasi tidak boleh menghapus nullability AttributeReference dataType
- [SPARK-37907] [SQL] InvokeLike menambahkan dukungan untuk ConstantFolding
- [SPARK-37891] [CORE] Menambahkan pemeriksaan scalastyle untuk menonaktifkan scala.concurrent.ExecutionContext.Implicits.global
- [SPARK-38150] [SQL] Memperbarui komentar RelationConversions
- [SPARK-37943] [SQL] Menggunakan kelas kesalahan dalam kesalahan kompilasi pengelompokan
- [SPARK-37652] [SQL]Menambahkan tes untuk mengoptimalkan gabungan yang menyimpang melalui penyatuan
- [SPARK-38056] [Web UI][3.2] Memperbaiki masalah streaming terstruktur yang tidak berfungsi di server riwayat saat menggunakan LevelDB
-
[SPARK-38144] [CORE] Menghapus konfigurasi
spark.storage.safetyFractionyang tidak digunakan - [SPARK-38120] [SQL] Memperbaiki HiveExternalCatalog.listPartitions ketika nama kolom partisi adalah huruf besar dan berupa titik dalam nilai partisi
- [SPARK-38122] [Docs] Memperbarui Kunci Aplikasi DocSearch
- [SPARK-37479] [SQL] Memigrasikan DROP NAMESPACE untuk menggunakan perintah V2 secara default
- [SPARK-35703] [SQL] Melonggarkan batasan untuk gabungan wadah dan menghapus HashClusteredDistribution
- [SPARK-37983] [SQL] Menghapus metrik waktu kompilasi dari agregat berbasis pengurutan
- [SPARK-37915] [SQL] Menggabungkan penyatuan jika terdapat proyek di antaranya
- [SPARK-38105] [SQL] Gunakan kelas kesalahan pada kesalahan parsing saat melakukan operasi join
- [SPARK-38073] [PYTHON] Memperbarui fungsi atexit untuk menghindari masalah dengan pengikatan terlambat
- [SPARK-37941] [SQL] Menggunakan kelas kesalahan dalam kesalahan kompilasi transmisi
- [SPARK-37937] [SQL] Menggunakan kelas kesalahan dalam kesalahan penguraian pada gabungan lateral
-
[SPARK-38100] [SQL] Menghapus metode pribadi yang tidak digunakan di
Decimal - [SPARK-37987] [SS] Memperbaiki uji yang tidak konsisten pada StreamingAggregationSuite. Mengubah skema keadaan saat memulai ulang kueri
- [SPARK-38003] [SQL] Aturan LookupFunctions seharusnya hanya mencari fungsi dari registri fungsi bernilai skalar
-
[SPARK-38075] [SQL] Memperbaiki kesalahan pada pengiterasi keluaran proses
hasNextdiHiveScriptTransformationExec - [SPARK-37965] [SQL] Menghapus nama bidang centang saat membaca/menulis data yang ada di Orc
- [SPARK-37922] [SQL] Gabungkan menjadi satu cast jika kita dapat dengan aman menaikkan dua cast (for dbr-branch-10.x)
- [SPARK-37675] [SPARK-37793] Mencegah penggantian file gabungan dorongan acak setelah proses shuffle diselesaikan
- [SPARK-38011] [SQL] Hapus konfigurasi duplikat dan tidak berguna dalam ParquetFileFormat
-
[SPARK-37929] [SQL] Mendukung mode kaskade untuk API
dropNamespace - [SPARK-37931] [SQL] Mengutip nama kolom jika diperlukan
- [SPARK-37990] [SQL] Menyediakan dukungan untuk TimestampNTZ di RowToColumnConverter
-
[SPARK-38001] [SQL] Mengganti kelas kesalahan terkait fitur yang tidak didukung oleh
UNSUPPORTED_FEATURE -
[SPARK-37839] [SQL] DS V2 mendukung pendorongan agregat parsial
AVG - [SPARK-37878] [SQL] Migrasikan SHOW CREATE TABLE untuk menggunakan perintah v2 secara default
- [SPARK-37731] [SQL] Menata ulang dan membersihkan pencarian fungsi dalam Analyzer
- [SPARK-37979] [SQL] Beralih ke kelas kesalahan yang lebih umum dalam fungsi AES
- [SPARK-37867] [SQL] Mengompilasi fungsi agregat dialek JDBC bawaan
- [SPARK-38028] [SQL] Mengekspos Arrow Vector dari ArrowColumnVector
- [SPARK-30062] [SQL] Menambahkan pernyataan IMMEDIATE ke implementasi pemotongan dialek DB2
-
[SPARK-36649] [SQL] Mendukung
Trigger.AvailableNowpada sumber data Kafka - [SPARK-38018] [SQL] Memperbaiki ColumnVectorUtils.populate untuk menangani CalendarIntervalType secara benar
-
[SPARK-38023] [CORE]
ExecutorMonitor.onExecutorRemovedharus menanganiExecutorDecommissionsebagai selesai. -
[SPARK-38019] [CORE] Jadikan deterministik
ExecutorMonitor.timedOutExecutors - [SPARK-37957] [SQL] Melewati bendera deterministik dengan benar untuk fungsi bernilai skalar V2
- [SPARK-37985] [SQL] Memperbaiki tes tidak stabil SPARK-37578
- [SPARK-37986] [SQL] Mendukung TimestampNTZ dalam urutan radix
- [SPARK-37967] [SQL] Literal.create mendukung ObjectType
- [SPARK-37827] [SQL] Memasukkan beberapa properti tabel bawaan ke V1Table.propertie untuk beradaptasi dengan perintah V2
- [SPARK-37963] [SQL] Perlu memperbarui URI Partisi setelah mengganti nama tabel di inMemoryCatalog
- [SPARK-35442] [SQL] Mendukung menyebarkan relasi kosong melalui agregat/penyatuan
- [SPARK-37933] [SQL] Mengubah metode traversal aturan tekan bawah V2ScanRelationPushDown
- [SPARK-37917] [SQL] Menekan batas 1 untuk sisi kanan gabungan semi/anti kiri jika kondisi gabungan kosong
- [SPARK-37959] [ML] Perbaiki UT norma pemeriksaan di KMeans & BiKMeans
- [SPARK-37906] [SQL] spark-sql tidak boleh meneruskan komentar terakhir ke backend
- [SPARK-37627] [SQL] Tambahkan kolom yang diurutkan ke BucketTransform
Pembaruan pemeliharaan
Lihat pembaruan pemeliharaan Databricks Runtime 10.4 LTS.
Lingkungan sistem
-
Sistem Operasi: Ubuntu 20.04.4 LTS
- Catatan: Ini adalah versi Ubuntu yang digunakan oleh kontainer Databricks Runtime. Kontainer Databricks Runtime berjalan pada komputer virtual penyedia cloud, yang mungkin menggunakan versi Ubuntu atau distribusi Linux yang berbeda.
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.2
- Danau Delta: 1.1.0
Perpustakaan Python terinstal
| Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (ISO-Bergulir) | direktori aplikasi | 1.4.4 | argon2-cffi | 20.1.0 |
| pembangkit asinkron | 1.10 | atribut | 20.3.0 | panggilan balik | 0.2.0 |
| bidict | 0.21.4 | pemutih | 3.3.0 | boto3 | 1.16.7 |
| botocore | 1.19.7 | sertifikat | 5.12.2020 | cffi | 1.14.5 |
| chardet | 4.0.0 | pengendara sepeda | 0.10.0 | Cython | 0.29.23 |
| dbus-python | 1.2.16 | dekorator | 5.0.6 | defusedxml | 0.7.1 |
| distlib | 0.3.4 | distro-info | 0.23ubuntu1 | titik masuk | 0,3 |
| Ikhtisar Fakta | 1.0.0 | filelock | 3.6.0 | IDNA | 2.10 |
| ipykernel | 5.3.4 | ipython | 7.22.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.6.3 | Jedi | 0.17.2 | Jinja2 | 2.11.3 |
| jmespath | 0.10.0 | joblib | 1.0.1 | jsonschema | 3.2.0 |
| jupyter-client (klien Jupyter) | 6.1.12 | jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 | Koala | 1.8.2 |
| MarkupSafe | 2.0.1 | matplotlib | 3.4.2 | penyetelan salah | 0.8.4 |
| nbclient | 0.5.3 | nbconvert | 6.0.7 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | buku catatan | 6.3.0 | numpy (perpustakaan Python untuk operasi numerik) | 1.20.1 |
| kemasan | 20.9 | Panda | 1.2.4 | Pandocfilters | 1.4.3 |
| pengurai | 0.7.0 | kambing hitam | 0.5.1 | pexpect=4.8.0 | 4.8.0 |
| pickleshare | 0.7.5 | Bantal | 8.2.0 | pipa | 21.0.1 |
| plotly | 5.5.0 | prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 |
| protobuf | 3.17.2 | psycopg2 | 2.8.5 | ptyprocess | 0.7.0 |
| pyarrow | 4.0.0 | pycparser | 2,20 | Pygments | 2.8.1 |
| PyGObject | 3.36.0 | pyparsing | 2.4.7 | pyrsistent | 0.17.3 |
| python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.1 | python-engineio | 4.3.0 |
| python-socketio | 5.4.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
| permintaan | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-learn | 0.24.1 | scipy (perpustakaan Python untuk komputasi ilmiah) | 1.6.2 | Seaborn (perpustakaan Python untuk visualisasi data) | 0.11.1 |
| Send2Trash | 1.5.0 | setuptools | 52.0.0 | Enam | 1.15.0 |
| ssh-import-id | 5.10 | statsmodels (paket Python untuk pemodelan statistik) | 0.12.2 | keteguhan | 8.0.1 |
| selesai | 0.9.4 | jalur uji | 0.4.4 | threadpoolctl | 2.1.0 |
| Tornado | 6.1 | traitlets=5.0.5 | 5.0.5 | pembaruan tanpa pengawasan | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| webencodings=0.5.1 | 0.5.1 | wheel | 0.36.2 | widgetsnbextension | 3.5.1 |
Pustaka R yang diinstal
Pustaka R diinstal dari cuplikan CRAN Microsoft pada 2022-02-24. Rekam jepret tidak lagi tersedia.
| Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
|---|---|---|---|---|---|
| askpass | 1.1 | pastikanbahwa | 0.2.1 | pengalihan kembali | 1.4.1 |
| dasar | 4.1.2 | base64enc | 0.1-3 | sedikit | 4.0.4 |
| bit-64 | 4.0.5 | blob | 1.2.2 | sepatu bot | 1.3-28 |
| menyeduh | 1.0-7 | Brio | 1.1.3 | sapu | 0.7.12 |
| bslib | 0.3.1 | cashmere | 1.0.6 | layanan panggilan | 3.7.0 |
| caret | 6.0-90 | cellranger | 1.1.0 | kronogram | 2.3-56 |
| kelas | 7.3-20 | CLI | 3.2.0 | pemangkas | 0.8.0 |
| kluster | 2.1.2 | codetools | 0.2-18 | ruang warna | 2.0-3 |
| commonmark | 1.7 | pengkompilasi | 4.1.2 | konfig | 0.3.1 |
| cpp11 | 0.4.2 | kriyon | 1.5.0 | kredensial | 1.3.2 |
| melengkung | 4.3.2 | data.table (sebuah paket untuk pengolahan data table) | 1.14.2 | kumpulan data | 4.1.2 |
| DBI | 1.1.2 | dbplyr | 2.1.1 | deskripsi | 1.4.0 |
| devtools | 2.4.3 | diffobj | 0.3.5 | digest | 0.6.29 |
| dplyr | 1.0.8 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
| elipsis | 0.3.2 | menilai | 0,15 | penggemar | 1.0.2 |
| warna | 2.1.0 | pemetaan cepat | 1.1.0 | fontawesome | 0.2.2 |
| untuk kucing | 0.5.1 | foreach (pengulangan untuk setiap elemen) | 1.5.2 | asing | 0.8-82 |
| bengkel pandai besi | 0.2.0 | fs | 1.5.2 | masa depan | 1.24.0 |
| menerapkan di masa depan | 1.8.1 | kumur | 1.2.0 | generik | 0.1.2 |
| Gert | 1.5.0 | ggplot2 | 3.3.5 | Gh | 1.3.0 |
| gitcreds | 0.1.1 | glmnet | 4.1-3 | variabel global | 0.14.0 |
| lem | 1.6.1 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
| Gower | 1.0.0 | grafik | 4.1.2 | grDevices | 4.1.2 |
| kisi | 4.1.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.0 | topi keras | 0.2.0 | tempat aman | 2.4.3 |
| lebih tinggi | 0,9 | HMS | 1.1.1 | htmltools | 0.5.2 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | Id | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-12 | isoband | 0.2.5 |
| pengulang | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 1.8.0 |
| KernSmooth | 2.23-20 | knitr | 1.37 | pelabelan | 0.4.2 |
| nanti | 1.3.0 | kerangka | 0.20-45 | lahar | 1.6.10 |
| siklus hidup | 1.0.1 | listenv | 0.8.0 | lubridate | 1.8.0 |
| magrittr | 2.0.2 | Markdown | 1.1 | massa | 7.3-55 |
| Matriks | 1.4-0 | memosankan | 2.0.1 | metode | 4.1.2 |
| mgcv | 1.8-39 | pantomim | 0.12 | ModelMetrics | 1.2.2.2 |
| modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-155 |
| nnet | 7.3-17 | numDeriv | Agustus 2016 - Januari 2017 | openssl | 1.4.6 |
| paralel | 4.1.2 | secara paralel | 1.30.0 | pilar | 1.7.0 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgload | 1.2.4 |
| plogr | 0.2.0 | plyr | 1.8.6 | pujian | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | ProsesX | 3.5.2 |
| prodlim | 2019.11.13 | kemajuan | 1.2.2 | progresr | 0.10.0 |
| janji-janji | 1.2.0.1 | Proto | 1.0.0 | proksi | 0.4-26 |
| P.S. | 1.6.0 | menggeram lembut | 0.3.4 | r2d3 | 0.2.5 |
| R6 | 2.5.1 | randomForest (algoritma pembelajaran mesin) | 4.7-1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-2 | Rcpp | 1.0.8 |
| RcppEigen | 0.3.3.9.1 | pembaca | 2.1.2 | readxl (membaca file Excel) | 1.3.1 |
| Resep | 0.2.0 | pertandingan ulang | 1.0.1 | pertandinganulang2 | 2.1.2 |
| pengendali jarak jauh | 2.4.2 | contoh replikasi | 2.0.1 | reshape2 | 1.4.4 |
| rlang | 1.0.1 | rmarkdown | 2.11 | RODBC | 1.3-19 |
| roxygen2 | 7.1.2 | rpart | 4.1.16 | rprojroot | 2.0.2 |
| Rserve | 1.8-10 | RSQLite | 2.2.10 | rstudioapi | 0,13 |
| rversions | 2.1.1 | rvest | 1.0.2 | Sass | 0.4.0 |
| timbangan / sisik | 1.1.1 | selektor | 0,4-2 | informasi sesi | 1.2.2 |
| bentuk | 1.4.6 | mengkilap | 1.7.1 | sourcetools | 0.1.7 |
| sparklyr - paket R untuk analisis data dan pembelajaran mesin | 1.7.5 | SparkR | 3.2.0 | spasial | 7.3-11 |
| garis lengkung | 4.1.2 | sqldf | 0,4-11 | SQUAREM | 2021.1 |
| statistik | 4.1.2 | statistik4 | 4.1.2 | string | 1.7.6 |
| stringr | 1.4.0 | bertahan hidup | 3.2-13 | Sistem | 3.4 |
| bahasa pemrograman Tcl/Tk | 4.1.2 | TeachingDemos | 2.10 | ujiitu | 3.1.2 |
| tibble | 3.1.6 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
| tidyverse | 1.3.1 | Tanggal dan Waktu | 3043.102 | tinytex | 0,37 |
| alat | 4.1.2 | tzdb | 0.2.0 | gunakan ini | 2.1.5 |
| utf8 | 1.2.2 | Utilitas | 4.1.2 | UUID (Pengidentifikasi Unik Universal) | 1.0-3 |
| vctrs | 0.3.8 | viridisLite | 0.4.0 | Vroom | 1.5.7 |
| Waldo | 0.3.1 | kumis | 0,4 | dengan | 2.4.3 |
| xfun | 0.29 | xml2 | 1.3.3 | xopen | 1.0.0 |
| xtable | 1.8-4 | yaml | 2.3.5 | Zip | 2.2.0 |
Pustaka Java dan Scala terinstal (versi kluster Scala 2.12)
| ID Grup | ID Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klien Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | AWS Java SDK untuk CloudHSM | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (konfigurasi SDK Java untuk AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-impor-ekspor | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-Pembelajaran Mesin | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks (SDK Java untuk OpsWorks) | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) | 1.11.655 |
| com.amazonaws | SDK Java untuk Storage Gateway AWS | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | AWS Java SDK Dukungan | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | aliran | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | bayangan-kriogenik | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.3.4 |
| com.fasterxml.jackson.core | Jackson Annotations | 2.12.3 |
| com.fasterxml.jackson.core | jackson-core | 2.12.3 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.3 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.12.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.3 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.3 |
| com.github.ben-manes.caffeine | kafein | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | inti | 1.1.2 |
| com.github.fommil.netlib | referensi_asli-java | 1.1 |
| com.github.fommil.netlib | rujukan_asli-java-natives | 1.1 |
| com.github.fommil.netlib | sistem_asli-java | 1.1 |
| com.github.fommil.netlib | native_sistem-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | jambu biji | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | pembuat profil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | kode_sumber_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf (algoritma kompresi) | 1.0.3 |
| com.sun.istack | istack-commons-runtime | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.15 |
| koleksi umum | koleksi umum | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| unggah berkas pada commons | unggah berkas pada commons | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (perpustakaan Java untuk fungsi pencatatan) | commons-logging (perpustakaan Java untuk fungsi pencatatan) | 1.1.3 |
| commons-net | commons-net | 3.1 |
| kolam umum | kolam umum | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | membosankan | 2.2.1 |
| dev.ludovic.netlib | LAPACK | 2.2.1 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 0,21% |
| io.delta | delta-sharing-spark_2.12 | 0.4.0 |
| io.dropwizard.metrics | inti metrik | 4.1.1 |
| io.dropwizard.metrics | metrik-graphite | 4.1.1 |
| io.dropwizard.metrics | metrik-pemeriksaan kesehatan | 4.1.1 |
| io.dropwizard.metrics | metrik-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrik-jmx | 4.1.1 |
| io.dropwizard.metrics | metrik-json | 4.1.1 |
| io.dropwizard.metrics | metrik-jvm | 4.1.1 |
| io.dropwizard.metrics | metrik-servlets | 4.1.1 |
| io.netty | netty-all | 4.1.68.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_umum | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway (gateway pendorong sederhana) | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | pengumpul | 0.12.0 |
| jakarta.anotasi | jakarta.anotasi-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | Transaction-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.10.10 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| pohon ahli | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Pyrolit | 4.30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| jaring.bunga salju | snowflake-ingest-sdk | 0.9.6 |
| jaring.bunga salju | snowflake-jdbc | 3.13.3 |
| jaring.bunga salju | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_gabungan_semua | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | semut | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format tanda panah | 2.0.0 |
| org.apache.arrow | inti-memori-panah | 2.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 2.0.0 |
| org.apache.arrow | panah-vektor | 2.0.0 |
| org.apache.avro | Avro | 1.10.2 |
| org.apache.avro | avro-ipc | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | Commons-Math3 | 3.4.1 |
| org.apache.commons | commons-text (teks umum) | 1.6 |
| org.apache.curator | kurator-klien | 2.13.0 |
| org.apache.curator | kerangka kerja kurator | 2.13.0 |
| org.apache.curator | kurasi resep | 2.13.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api (API klien Hadoop) | 3.3.1-databricks |
| org.apache.hadoop | lingkungan kerja klien Hadoop | 3.3.1 |
| org.apache.hive | hive-beeline (antarmuka perintah untuk Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API penyimpanan hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) | 2.3.9 |
| org.apache.hive.shims | Pengatur Jadwal Hive Shims | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-inkubasi |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | tanaman anggur | 2.5.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.12 |
| org.apache.orc | orc-mapreduce | 1.6.12 |
| org.apache.orc | orc-shims | 1.6.12 |
| org.apache.parquet | parquet-kolom | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet umum | 1.12.0-databricks-0003 |
| org.apache.parquet | pengkodean parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-format-struktur | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | penjelasan-audiens | 0.5.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.6.2 |
| org.apache.zookeeper | penjaga kebun binatang-jute | 3.6.2 |
| org.checkerframework | pemeriksa kualitas | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Pengompilasi Umum | 3.0.16 |
| org.codehaus.janino | Januari | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.43.v20210629 |
| org.eclipse.jetty | lanjutan dermaga | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-http (protokol HTTP untuk server Jetty) | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-io | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-jndi | 9.4.43.v20210629 |
| org.eclipse.jetty | Jetty Plus | 9.4.43.v20210629 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-keamanan | 9.4.43.v20210629 |
| org.eclipse.jetty | Jetty Server | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-servlet | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-servlets | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-util | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.43.v20210629 |
| org.eclipse.jetty | Aplikasi web Jetty | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-xml | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-klien | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.43.v20210629 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-pemindai lokasi | 2.6.1 |
| org.glassfish.hk2 | hk2-utilitas | 2.6.1 |
| org.glassfish.hk2 | pencari sumber daya osgi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance (dikemas ulang) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-inti | 2,34 |
| org.glassfish.jersey.core | jersey-client | 2,34 |
| org.glassfish.jersey.core | jersey biasa | 2,34 |
| org.glassfish.jersey.core | Jersey-server | 2,34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
| org.hibernate.validator | Hibernate Validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotasi | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client (klien Java untuk MariaDB) | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | ganjal | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | antarmuka-uji | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | tidak digunakan | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | makro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |