Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Nota
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan dan akhir masa pakai. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 13.1, didukung oleh Apache Spark 3.4.0.
Databricks merilis versi ini pada Bulan Mei 2023.
Fitur dan peningkatan baru
- Dukungan kluster untuk JDK 17 (Pratinjau Umum)
- Menambahkan, mengubah, atau menghapus data dalam tabel streaming
- Baca Kafka dengan SQL
- Fungsi bawaan SQL baru
- Dukungan Unity Catalog untuk pustaka Python dengan cakupan kluster
- Perluasan pengaktifan default untuk penulisan yang dioptimalkan di Katalog Unity
- Dukungan tingkat lanjut untuk operator stateful dalam beban kerja Streaming Terstruktur
- Klon delta untuk Katalog Unity ada di Pratinjau Umum
- Dukungan Pub/Sub untuk Streaming Terstruktur
- Menghilangkan duplikat dalam tanda waktu di Streaming Terstruktur
- Dukungan yang diperluas untuk konversi Delta dari tabel Apache Iceberg dengan kolom partisi terpotong
- Melakukan streaming perubahan skema dengan pemetaan kolom di Delta Lake
- Hapus MULAI VERSI
- Ekspresi H3 baru tersedia dengan Python
Dukungan kluster untuk JDK 17 (Pratinjau Umum)
Databricks sekarang menyediakan dukungan kluster untuk Java Development Kit (JDK) 17. Lihat Databricks SDK untuk Java.
Menambahkan, mengubah, atau menghapus data dalam tabel streaming
Sekarang Anda dapat menggunakan pernyataan DML untuk memodifikasi tabel streaming yang diterbitkan ke Unity Catalog by Lakeflow Spark Declarative Pipelines. Lihat Menambahkan, mengubah, atau menghapus data dalam tabel streaming dan menambahkan, mengubah, atau menghapus data dalam tabel streaming target. Anda juga dapat menggunakan pernyataan DML untuk memodifikasi tabel streaming yang dibuat di Databricks SQL.
Baca Kafka dengan SQL
Anda sekarang dapat menggunakan read_kafka fungsi SQL untuk membaca data Kafka. Streaming dengan SQL hanya didukung di DLT atau dengan tabel streaming di Databricks SQL. Lihat fungsi bernilai tabel read_kafka.
Fungsi bawaan SQL baru
Fungsi berikut telah ditambahkan:
-
array_prepend(array, elem) Mengembalikan
arrayyang diawali olehelem. -
try_aes_decrypt(expr, key [, mode [, padding]]) Mendekripsi biner yang diproduksi menggunakan enkripsi AES, dan mengembalikan
NULLjika ada kesalahan. - sql_keywords() Mengembalikan tabel kata kunci SQL Azure Databricks.
Dukungan Katalog Unity untuk pustaka Python berlingkup kluster
Katalog Unity memiliki beberapa batasan pada penggunaan pustaka. Pada Databricks Runtime 13.1 ke atas, pustaka Python bercakupan kluster didukung, termasuk file Python wheel yang diunggah sebagai file ruang kerja. Pustaka yang direferensikan menggunakan jalur file DBFS tidak didukung, baik di akar DBFS atau lokasi eksternal yang dipasang ke DBFS. Pustaka non-Python tidak didukung. Lihat Pustaka cakupan komputasi.
Pada Runtime Databricks 13.0 dan versi sebelumnya, pustaka yang cakupannya terbatas pada kluster tidak didukung pada kluster yang menggunakan mode akses standar (sebelumnya mode akses bersama) di ruang kerja yang mendukung Unity Catalog.
Pengaktifan default yang diperluas untuk optimisasi penulisan di Katalog Unity
Dukungan tulis default yang dioptimalkan untuk tabel Delta yang terdaftar di Unity Catalog telah diperluas untuk menyertakan pernyataan CTAS dan operasi INSERT untuk tabel yang dipartisi. Perilaku ini selaras dengan default pada gudang SQL. Lihat Penulisan Teroptimasi.
Dukungan tingkat lanjut untuk operator stateful dalam beban kerja Streaming Terstruktur
Anda sekarang dapat menautkan beberapa operator stateful bersama-sama, yang memungkinkan Anda memberikan hasil dari operasi seperti agregasi berbasis jendela ke operasi stateful lainnya seperti penggabungan. Lihat Apa itu streaming stateful?.
Klon Delta untuk Unity Catalog sedang dalam Pratinjau Publik
Anda sekarang dapat menggunakan kloning dangkal untuk membuat tabel terkelola Unity Catalog baru dari tabel terkelola Unity Catalog yang ada. Lihat klon Shallow untuk tabel Unity Catalog.
Dukungan Pub/Sub untuk Streaming Terstruktur
Anda sekarang dapat menggunakan konektor bawaan untuk berlangganan Google Pub/Sub dengan Streaming Terstruktur. Lihat Berlangganan Google Pub/Sub.
Menghilangkan duplikat dalam penanda waktu di Streaming Terstruktur
Anda sekarang dapat menggunakan dropDuplicatesWithinWatermark dalam kombinasi dengan ambang batas watermark tertentu untuk menghilangkan duplikasi rekaman dalam Streaming Terstruktur. Lihat Menghilangkan duplikat dalam tanda air.
Dukungan yang diperluas untuk konversi Delta dari tabel Apache Iceberg dengan kolom partisi yang dipotong
Anda sekarang dapat menggunakan CLONE dan CONVERT TO DELTA dengan tabel Apache Iceberg yang memiliki partisi yang ditentukan pada kolom yang terpotong dari jenis int, long, dan string. Kolom-kolom terpangkas dari tipe decimal tidak didukung.
Melakukan streaming perubahan skema dengan pemetaan kolom di Delta Lake
Anda sekarang dapat menyediakan lokasi pelacakan skema untuk mengaktifkan streaming dari tabel Delta dengan pemetaan kolom yang diaktifkan. Lihat Pemetaan kolom dan streaming.
Hapus VERSI AWAL
START VERSION sekarang tidak digunakan lagi untuk ALTER SHARE.
Ekspresi H3 baru tersedia dengan Python
Ekspresi h3_coverash3 dan h3_coverash3string tersedia dengan Python.
Pemulihan kesalahan perangkat lunak
Parquet failOnUnknownFields tidak lagi diam-diam mengabaikan data pada ketidakcocokan tipe.
Jika file Parquet dibaca dengan opsi failOnUnknownFields saja atau dengan Auto Loader dalam mode evolusi skema failOnNewColumns, kolom yang memiliki jenis data yang berbeda akan gagal dan sistem merekomendasikan penggunaan rescuedDataColumn. Auto Loader sekarang membaca dengan benar dan tidak lagi menyelamatkan jenis Bilangan Bulat, Pendek, atau Byte jika salah satu jenis data ini disediakan. File Parquet menunjukkan salah satu dari dua jenis lainnya.
Perubahan mendasar
Tingkatkan versi sqlite-jdbc ke 3.42.0.0 ke alamat CVE-2023-32697
Tingkatkan versi sqlite-jdbc dari 3.8.11.2 ke 3.42.0.0. API versi 3.42.0.0 tidak sepenuhnya kompatibel dengan 3.8.11.2. Jika menggunakan sqlite-jdbc dalam kode Anda, periksa laporan kompatibilitas sqlite-jdbc untuk detailnya. Jika Anda bermigrasi ke 13.1 dan menggunakan sqlite, konfirmasikan metode Anda dan kembalikan jenis dalam versi 3.42.0.0.
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- ringkasan faset dari 1.0.2 hingga 1.0.3
- filelock dari 3.10.7 hingga 3.12.0
- pyarrow dari 7.0.0 hingga 8.0.0
- tenacity dari 8.0.1 hingga 8.1.0
- Pustaka R yang ditingkatkan:
- Pustaka Java yang ditingkatkan:
- com.github.ben-manes.caffeine.caffeine dari 2.3.4 hingga 2.9.3
- io.delta.delta-sharing-spark_2.12 dari 0.6.8 hingga 0.6.4
- net.snowflake.snowflake-jdbc dari 3.13.29 ke 3.13.22
- org.checkerframework.checker-qual dari 3.5.0 hingga 3.19.0
- org.scalactic.scalactic_2.12 dari 3.0.8 ke 3.2.15
- org.scalatest.scalatest_2.12 dari 3.0.8 ke 3.2.15
- org.xerial.sqlite-jdbc dari 3.8.11.2 ke 3.42.0.0
Apache Spark
Databricks Runtime 13.1 mencakup Apache Spark 3.4.0. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 13.0 (EoS), serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:
- [SPARK-42719] [DBRRM-199][sc-131578] Kembali "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][sc-130056][CORE] Mengembalikan [SC-127830]/
- [SPARK-43331] [SC-130064][connect] Tambahkan Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][connect][PYTHON] Memungkinkan untuk memperluas ChannelBuilder untuk SparkConnectClient
- [SPARK-43323] [SC-129966][sql][PYTHON] Memperbaiki DataFrame.toPandas dengan Arrow diaktifkan untuk menangani pengecualian dengan benar
- [SPARK-42940] [SC-129896][ss][CONNECT] Meningkatkan manajemen sesi untuk kueri streaming
- [SPARK-43032] [SC-125756] [CONNECT][ss] Tambahkan manajer kueri Streaming
- [SPARK-16484] [SC-129975][sql] Tambahkan dukungan untuk Datasketches HllSketch
- [SPARK-43260] [SC-129281][python] Migrasikan kesalahan tipe panah Pandas pada Spark SQL ke dalam kelas kesalahan.
- [SPARK-41766] [SC-129964][core] Menangani permintaan penonaktifan yang dikirim sebelum pendaftaran eksekutor
- [SPARK-43307] [SC-129971][python] Memigrasikan kesalahan nilai PandasUDF ke dalam kelas kesalahan
- [SPARK-43206] [SC-129903] [SS] [SAMBUNGKAN] Pengecualian StreamingQuery() menyertakan pelacakan tumpukan
- [SPARK-43311] [SC-129905][ss] Tambahkan peningkatan manajemen memori penyedia penyimpanan status RocksDB
- [SPARK-43237] [SC-129898][core] Menangani pesan pengecualian null di log peristiwa
- [SPARK-43320] [SC-129899][sql][HIVE] Memanggil langsung Apache Hive 2.3.9 API
-
[SPARK-43270] [SC-129897][python] Implement
__dir__()inpyspark.sql.dataframe.DataFrameuntuk menyertakan kolom - [SPARK-43183] Kembalikan "[SC-128938][ss] Perkenalkan panggilan balik baru "...
- [SPARK-43143] [SC-129902] [SS] [KONEKSI] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][sql] Ganti kelas kesalahan _LEGACY_ERROR_TEMP_2022 dengan kesalahan internal
- [SPARK-43198] [SC-129470][connect] Memperbaiki "Tidak dapat menginisialisasi kelas ammonite..." kesalahan saat menggunakan filter
- [SPARK-43165] [SC-129777][sql] Memindahkan canWrite ke DataTypeUtils
- [SPARK-43298] [SC-129729][python][ML] predict_batch_udf dengan input skalar gagal dengan ukuran batch sebesar satu
- [SPARK-43298] [SC-129700]Kembalikan "[PYTHON][ml] predict_batch_udf dengan input skalar gagal dengan ukuran batch satu"
- [SPARK-43052] [SC-129663][core] Menangani jejak tumpukan dengan nama berkas null dalam log acara
- [SPARK-43183] [SC-128938][ss] Memperkenalkan callback baru "onQueryIdle" ke StreamingQueryListener
- [SPARK-43209] [SC-129190][connect][PYTHON] Migrasikan kesalahan Ekspresi ke kelas kesalahan
- [SPARK-42151] [SC-128754][sql] Sejajarkan UPDATE penugasan dengan atribut tabel
- [SPARK-43134] [SC-129468] [SAMBUNGKAN] [SS] API exception() StreamingQuery pada klien JVM
- [SPARK-43298] [SC-129699][python][ML] predict_batch_udf dengan input skalar gagal dengan ukuran batch satu
- [SPARK-43248] [SC-129660][sql] Serialisasi/deserialisasi Path yang tidak perlu pada pengumpulan statistik partisi secara paralel
-
[SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Memperkenalkan
PySparkNotImplementedError - [SPARK-43146] [SC-128804][connect][PYTHON] Terapkan evaluasi dini untuk repr dan repr_html
- [SPARK-42953] [SC-129469][connect][Followup] Perbaiki build pengujian maven untuk pengujian UDF klien Scala
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][connect] Menambahkan fungsi groupByKey + mapGroup + coGroup
-
[SPARK-43156] [SC-129672][sc-128532][SQL] Perbaiki
COUNT(*) is nullbug dalam subkueri skalar berkorelasi - [SPARK-43046] [SC-129110] [SS] [Connect] Diimplementasikan API Python dropDuplicatesWithinWatermark untuk Spark Connect
- [SPARK-43199] [SC-129467][sql] Make InlineCTE idempotent
-
[SPARK-43293] [SC-129657][sql]
__qualified_access_onlyharus diabaikan di kolom normal - [SPARK-43276] [SC-129461][connect][PYTHON] Migrasikan kesalahan Jendela Spark Connect ke kelas kesalahan
- [SPARK-43174] [SC-129109][sql] Memperbaiki SparkSQLCLIDriver completer
- [SPARK-43084] [SC-128654] [SS] Menambahkan dukungan applyInPandasWithState untuk spark connect
- [SPARK-43119] [SC-129040][sql] Dukungan Dapatkan Kata Kunci SQL Secara Dinamis Thru JDBC API dan TVF
- [SPARK-43082] [SC-129112][connect][PYTHON] UDF Python yang dioptimalkan oleh Apache Arrow di Spark Connect
- [SPARK-43085] [SC-128432][sql] Mendukung penugasan DEFAULT kolom untuk nama tabel multi-bagian
- [SPARK-43226] [LC-671] Tentukan ekstraktor untuk metadata konstanta file
-
[SPARK-43210] [SC-129189][connect][PYTHON] Memperkenalkan
PySparkAssertionError - [SPARK-43214] [SC-129199][sql] Pasca metrik sisi driver untuk LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Memperbaiki ReplE2ESuite yang gagal secara konsisten dengan JDK 17
- [SPARK-43268] [SC-129249][sql] Gunakan kelas kesalahan yang tepat saat pengecualian dibangun dengan pesan
- [SPARK-43142] [SC-129299] Memperbaiki ekspresi DSL pada atribut dengan karakter khusus
- [SPARK-43129] [SC-128896] API inti Scala untuk streaming Spark Connect
- [SPARK-43233] [SC-129250] [SS] Menambahkan pencatatan log untuk Pembacaan Berkelompok Kafka pada partisi topik, rentang offset, dan ID tugas
- [SPARK-43249] [SC-129195][connect] Perbaiki statistik yang hilang untuk Perintah SQL
- [SPARK-42945] [SC-129188][connect] Dukungan PYSPARK_JVM_STACKTRACE_ENABLED di Spark Connect
- [SPARK-43178] [SC-129197][connect][PYTHON] Memigrasikan kesalahan UDF ke dalam kerangka kerja kesalahan PySpark
- [SPARK-43123] [SC-128494][sql] Metadata bidang internal tidak boleh bocor ke katalog
- [SPARK-43217] [SC-129205] Berulang dengan benar dalam peta/array berlapis di findNestedField
- [SPARK-43243] [SC-129294][python][CONNECT] Tambahkan param tingkat ke printSchema untuk Python
-
[SPARK-43230] [SC-129191][connect] Sederhanakan
DataFrameNaFunctions.fillna - [SPARK-43088] [SC-128403][sql] Menghormati RequiresDistributionAndOrdering dalam CTAS/RTAS
-
[SPARK-43234] [SC-129192][connect][PYTHON] Migrasi
ValueErrordari Conect DataFrame ke kelas kesalahan - [SPARK-43212] [SC-129187][ss][PYTHON] Memindahkan kesalahan Streaming Terstruktur ke kategori kesalahan
-
[SPARK-43239] [SC-129186][ps] Hapus
null_countsdari info() - [SPARK-43190] [SC-128930][sql] ListQuery.childOutput harus konsisten dengan keluaran dari child
- [SPARK-43191] [SC-128924][core] Ganti refleksi dengan panggilan langsung untuk Hadoop CallerContext
- [SPARK-43193] [SC-129042][ss] Hapus solusi untuk HADOOP-12074
- [SPARK-42657] [SC-128621][connect] Dukungan untuk menemukan dan mentransfer file kelas REPL sisi klien ke server sebagai artefak
- [SPARK-43098] [SC-77059][sql] Perbaiki bug COUNT kebenaran saat subkueri skalar memiliki klausa GROUP BY
-
[SPARK-43213] [SC-129062][python] Tambahkan
DataFrame.offsetke vanilla PySpark - [SPARK-42982] [SC-128400][connect][PYTHON] Fix createDataFrame untuk menghormati skema ddl yang diberikan
- [SPARK-43124] [SC-129011][sql] Dataset.show memproyeksikan CommandResults secara lokal
- [SPARK-42998] [SC-127422][connect][PYTHON] Memperbaiki DataFrame.collect dengan null struct
- [SPARK-41498] [SC-125343]Kembalikan " Sebarkan metadata melalui Union"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Tambahkan API await_termination() dan pengecualian() untuk Kueri Streaming di Python
- [SPARK-42552] [SC-128824][sql] Perbaiki strategi penguraian dua tahap pengurai antlr
- [SPARK-43207] [SC-128937][connect] Tambahkan fungsi pembantu untuk mengekstrak nilai dari ekspresi harfiah
- [SPARK-43186] [SC-128841][sql][HIVE] Hapus penyelesaian sementara untuk FileSinkDesc
- [SPARK-43107] [SC-128533][sql] Wadah coalesce dalam gabungan diterapkan pada sisi streaming gabungan siaran
- [SPARK-43195] [SC-128922][core] Hapus pembungkus serial yang tidak perlu di HadoopFSUtils
- [SPARK-43137] [SC-128828][sql] Tingkatkan ArrayInsert jika posisi dapat dilipat dan positif.
- [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join harus mengembalikan nilai null untuk baris yang tidak cocok
- [SPARK-43042] [SC-128602] [SS] [Sambungkan] Menambahkan dukungan API table() untuk DataStreamReader
- [SPARK-43153] [SC-128753][connect] Lewati pelaksanaan Spark ketika dataframe bersifat lokal
- [SPARK-43064] [SC-128496][sql] Tab Spark SQL CLI SQL seharusnya hanya menampilkan sekali pernyataan sekali
- [SPARK-43126] [SC-128447][sql] Tandai dua ekspresi UDF Hive sebagai stateful
-
[SPARK-43111] [SC-128750][ps][CONNECT][python] Gabungkan pernyataan berlapis
ifke dalam pernyataan tunggalif - [SPARK-43113] [SC-128749][sql] Mengevaluasi variabel sisi aliran saat membuat kode untuk kondisi terikat
- [SPARK-42895] [SC-127258][connect] Meningkatkan pesan kesalahan untuk sesi Spark yang dihentikan
- [SPARK-42884] [SC-126662][connect] Tambahkan integrasi Amonite REPL
- [SPARK-43168] [SC-128674][sql] Hapus metode PhysicalDataType dari kelas Datatype
-
[SPARK-43121] [SC-128455][sql] Gunakan
BytesWritable.copyBytesalih-alih salinan manual di 'HiveInspectors - [SPARK-42916] [SC-128389][sql] JDBCTableCatalog Menyimpan metadata Char/Varchar di sisi baca
- [SPARK-43050] [SC-128550][sql] Perbaiki ekspresi agregat konstruksi dengan mengganti fungsi pengelompokan
-
[SPARK-43095] [SC-128549][sql] Hindari rusaknya idempotensi strategi Once untuk batch:
Infer Filters - [SPARK-43130] [SC-128597][sql] Pindahkan InternalType ke PhysicalDataType
- [SPARK-43105] [SC-128456][connect] Memperpendek Byte dan String dalam pesan proto
-
[SPARK-43099] [SC-128596][sql] Gunakan
getNamealih-alihgetCanonicalNamemendapatkan nama kelas pembangun saat mendaftarkan udf ke FunctionRegistry - [SPARK-42994] [SC-128586][ml][CONNECT] PyTorch Distributor mendukung Mode Lokal
- [SPARK-42859] Kembalikan "[SC-127935][connect][PS] Dukungan dasar untuk PANDAS API di Spark Connect"
-
[SPARK-43021] [SC-128472][sql]
CoalesceBucketsInJointidak berfungsi saat menggunakan AQE - [SPARK-43125] [SC-128477][connect] Memperbaiki Masalah pada Connect Server yang Tidak Bisa Menangani Pengecualian dengan Pesan Null
- [SPARK-43147] [SC-128594] memperbaiki flake8 lint untuk pemeriksaan lokal
- [SPARK-43031] [SC-128360] [SS] [Sambungkan] Mengaktifkan pengujian unit dan doctest untuk streaming
- [SPARK-43039] [LC-67] Mendukung bidang kustom di kolom _metadata sumber file.
- [SPARK-43120] [SC-128407][ss] Tambahkan dukungan untuk melacak penggunaan memori blok yang disematkan untuk penyimpanan status RocksDB
- [SPARK-43110] [SC-128381][sql] Pindahkan asIntegral ke PhysicalDataType
- [SPARK-43118] [SC-128398][ss] Hapus pernyataan yang tidak perlu untuk UninterruptibleThread di KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][connect][PYTHON] Mendukung nama bidang bertingkat yang duplikat
- [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable akan memungkinkan untuk menentukan tingkat penyimpanan
- [SPARK-42985] [SC-128332][connect][PYTHON] Perbaiki createDataFrame untuk menghormati konfigurasi SQL
- [SPARK-39696] [SC-127830][core] Perbaiki perlombaan data dalam akses ke TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][sql] Memindahkan Integral ke PhysicalDataType
- [SPARK-42741] [SC-125547][sql] Jangan membuka cast dalam perbandingan biner saat literal null
- [SPARK-43057] [SC-127948][connect][PYTHON] Migrasikan kesalahan Kolom Spark Connect ke kelas kesalahan
- [SPARK-42859] [SC-127935][connect][PS] Dukungan dasar untuk API pandas di Spark Connect
-
[SPARK-43013] [SC-127773][python] Migrasi
ValueErrordari DataFrame ke dalamPySparkValueError. - [SPARK-43089] [SC-128051][connect] Redact debug string pada UI
- [SPARK-43028] [SC-128070][sql] Tambahkan kelas kesalahan SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][hubungkan] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][sql] Tambahkan pengujian untuk dropDuplicates di JavaDatasetSuite
-
[SPARK-43075] [SC-127939][connect] Ubah
gRPCkegrpciosaat tidak diinstal. - [SPARK-42953] [SC-127809][connect] Filter jenis, peta, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][sql] Mendukung pengubahan tipe tanggal ke tipe cap waktu
- [SPARK-42931] [SC-127933][ss] Memperkenalkan fungsi dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][connect] Tambahkan konstanta untuk tipe data proto
- [SPARK-43077] [SC-128050][sql] Meningkatkan pesan kesalahan UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][ss][Connect] API DataStreamReader
- [SPARK-43049] [SC-127846][sql] Gunakan CLOB alih-alih VARCHAR(255) untuk StringType untuk Oracle JDBC
- [SPARK-43018] [SC-127762][sql] Perbaiki bug untuk perintah yang menggunakan literal timestamp
- [SPARK-42855] [SC-127722][sql] Gunakan pemeriksaan null runtime di TableOutputResolver
- [SPARK-43030] [SC-127847][sql] Deduplikasi hubungan dengan kolom metadata
- [SPARK-42993] [SC-127829][ml][CONNECT] Membuat Distributor PyTorch kompatibel dengan Spark Connect
- [SPARK-43058] [SC-128072][sql] Pindahkan Numerik dan Pecahan ke dalam PhysicalDataType
- [SPARK-43056] [SC-127946][ss] Komitmen penyimpanan status RocksDB harus melanjutkan pekerjaan di latar belakang hanya jika sudah dijeda
- [SPARK-43059] [SC-127947][connect][PYTHON] Migrasikan TypeError dari DataFrame(Pembaca|Penulis) ke dalam kelas kesalahan
- [SPARK-43071] [SC-128018][sql] Mendukung SELECT DEFAULT dengan ORDER BY, LIMIT, OFFSET untuk INSERT relasi sumber
- [SPARK-43061] [SC-127956][core][SQL] Perkenalkan PartitionEvaluator untuk eksekusi operator SQL
- [SPARK-43067] [SC-127938][ss] Perbaiki lokasi file sumber daya kelas kesalahan di konektor Kafka
- [SPARK-43019] [SC-127844][sql] Pindahkan Pemesanan ke PhysicalDataType
- [SPARK-43010] [SC-127759][python] Memigrasikan kesalahan Kolom ke kelas kesalahan
-
[SPARK-42840] [SC-127782][sql] Ubah
_LEGACY_ERROR_TEMP_2004kesalahan ke kesalahan internal - [SPARK-43041] [SC-127765][sql] Memulihkan konstruktor pengecualian untuk kompatibilitas di API konektor
- [SPARK-42939] [SC-127761][ss][CONNECT] Core streaming Python API untuk Spark Connect
-
[SPARK-42844] [SC-127766][sql] Perbarui kelas
_LEGACY_ERROR_TEMP_2008kesalahan keINVALID_URL - [SPARK-42316] [SC-127720][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][connect][PYTHON] Migrasikan kesalahan Spark Connect DataFrame ke dalam kelas kesalahan
- [SPARK-42983] [SC-127717][connect][PYTHON] Perbaiki createDataFrame untuk menangani array numpy 0-dim dengan benar
- [SPARK-42955] [SC-127476][sql] Melewatkan classifyException dan mengemas AnalysisException untuk SparkThrowable
- [SPARK-42949] [SC-127255][sql] Sederhanakan kode untuk NAAJ
-
[SPARK-43011] [SC-127577][sql]
array_insertseharusnya gagal pada indeks 0 -
[SPARK-42974] [SC-127487][core] Pulihkan
Utils.createTempDiruntuk menggunakanShutdownHookManagerdan membersihkan metodeJavaUtils.createTempDir. - [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' juga berarti tabel sudah ada
- [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME tidak dapat menentukan nama tabel baru dengan nama skema
- [SPARK-37980] [SC-127668][sql] Access row_index melalui _metadata jika memungkinkan dalam pengujian
- [SPARK-42655] [SC-127591][sql] Kesalahan referensi kolom ambigu yang salah
-
[SPARK-43009] [SC-127596][sql] Diparameterkan
sql()denganAnykonstanta - [SPARK-43026] [SC-127590][sql] Terapkan AQE dengan cache tabel yang tidak melakukan pertukaran
- [SPARK-42963] [SC-127576][sql] Extend SparkSessionExtensions untuk menyuntikkan aturan ke pengoptimal tahap kueri AQE
- [SPARK-42918] [SC-127357] Menggeneralisasi penanganan atribut metadata di FileSourceStrategy
-
[SPARK-42806] [SC-127452][spark-42811][CONNECT] Tambahkan
Catalogdukungan - [SPARK-42997] [SC-127535][sql] TableOutputResolver harus menggunakan jalur kolom yang benar dalam pesan kesalahan untuk array dan peta
- [SPARK-43006] [SC-127486][pyspark] Perbaiki kesalahan ketik di StorageLevel eq()
- [SPARK-43005] [SC-127485][pyspark] Perbaiki kesalahan ketik di pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][core] Perbaiki kesalahan ketik di ResourceRequest.equals()
- [SPARK-42907] [SC-126984][connect][PYTHON] Implementasi fungsi Avro
- [SPARK-42979] [SC-127272][sql] Tentukan konstruktor harfiah sebagai kata kunci
- [SPARK-42946] [SC-127252][sql] Menghapus data sensitif yang ditanam oleh substitusi variabel
- [SPARK-42952] [SC-127260][sql] Sederhanakan parameter aturan penganalisis PreprocessTableCreation dan DataSourceAnalysis
- [SPARK-42683] [LC-75] Ganti nama kolom metadata yang bertentangan secara otomatis
- [SPARK-42853] [SC-126101][followup] Memperbaiki konflik
- [SPARK-42929] [SC-126748][connect] membuat mapInPandas / mapInArrow agar mendukung "is_barrier"
- [SPARK-42968] [SC-127271][ss] Tambahkan opsi untuk melewati koordinator penerapan sebagai bagian dari API StreamingWrite untuk sumber/sink DSv2
-
[SPARK-42954] [SC-127261][python][CONNECT] Tambahkan
YearMonthIntervalTypeke Klien Python PySpark dan Spark Connect -
[SPARK-41359] [SC-127256][sql] Gunakan
PhysicalDataTypealih-alih DataType di UnsafeRow - [SPARK-42873] [SC-127262][sql] Tentukan jenis Spark SQL sebagai kata kunci
-
[SPARK-42808] [SC-126302][core] Hindari memeroleh availableProcessors setiap kali di
MapOutputTrackerMaster#getStatistics -
[SPARK-42937] [SC-126880][sql]
PlanSubqueriesharus diaturInSubqueryExec#shouldBroadcastke true -
[SPARK-42896] [SC-126729][sql][PYTHON] Mendukung eksekusi dalam mode hambatan untuk
mapInPandas/mapInArrow - [SPARK-42874] [SC-126442][sql] Aktifkan kerangka kerja pengujian file emas baru untuk analisis untuk semua file input
- [SPARK-42922] [SC-126850][sql] Pindah dari Random ke SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange mengacu pada node yang tidak ada
- [SPARK-40822] [SC-126274][sql] Alias kolom hasil derivasi konsisten
- [SPARK-42908] [SC-126856][python] Memunculkan RuntimeError ketika SparkContext diperlukan tetapi tidak diinisialisasi
- [SPARK-42779] [SC-126042][sql] Izinkan penulisan V2 menunjukkan ukuran partisi pemindahan berdasarkan saran
-
[SPARK-42914] [SC-126727][python] Gunakan
transformUnregisteredFunctionkembali untukDistributedSequenceID. - [SPARK-42878] [SC-126882][connect] API tabel di DataFrameReader juga dapat menerima opsi
-
[SPARK-42927] [SC-126883][core] Ubah cakupan
o.a.spark.util.Iterators#sizeakses menjadiprivate[util] - [SPARK-42943] [SC-126879][sql] Gunakan LONGTEXT alih-alih TEXT untuk StringType untuk panjang efektif
- [SPARK-37677] [SC-126855][core] Unzip dapat menyimpan izin file
- [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implement CoGrouped Map API
- [SPARK-41876] [SC-126849][connect][PYTHON] Mengimplementasikan DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761][core][SQL] Ubah cakupan
ProtobufSerDeakses implementasi terkait menjadiprivate[protobuf] - [SPARK-42819] [SC-125879][ss] Tambahkan dukungan untuk pengaturan max_write_buffer_number dan write_buffer_size untuk RocksDB yang digunakan dalam streaming
- [SPARK-42924] [SC-126737][sql][CONNECT][python] Mengklarifikasi komentar args SQL berparameter
- [SPARK-42748] [SC-126455][connect] Manajemen Artefak pihak server
- [SPARK-42816] [SC-126365][connect] Mendukung ukuran Pesan Maks hingga 128MB
- [SPARK-42850] [SC-126109][sql] Hapus aturan duplikat CombineFilters di Optimizer
- [SPARK-42662] [SC-126355][connect][PS] Tambahkan pesan proto untuk API pandas pada indeks default Spark
- [SPARK-42720] [SC-126136][ps][SQL] Menggunakan ekspresi untuk indeks default urutan terdistribusi alih-alih rencana
- [SPARK-42790] [SC-126174][sql] Abstraksi metode yang dikecualikan untuk meningkatkan pengujian dalam pengujian JDBC docker.
- [SPARK-42900] [SC-126473][connect][PYTHON] Perbaiki createDataFrame untuk menghormati nama inferensi dan kolom
- [SPARK-42917] [SC-126657][sql] Memperbaiki getUpdateColumnNullabilityQuery untuk DerbyDialect
- [SPARK-42684] [SC-125157][sql] katalog v2 tidak boleh mengizinkan nilai default kolom secara default
- [SPARK-42861] [SC-126635][sql] Gunakan private[sql] alih-alih dilindungi[sql] untuk menghindari pembuatan dokumen API
- [SPARK-42920] [SC-126728][connect][PYTHON] Aktifkan pengujian untuk UDF dengan UDT
- [SPARK-42791] [SC-126617][sql] Buat kerangka kerja pengujian file emas baru untuk analisis
- [SPARK-42911] [SC-126652][python] Memperkenalkan pengecualian yang lebih mendasar
- [SPARK-42904] [SC-126634][sql] Dukungan Char/Varchar untuk Katalog JDBC
-
[SPARK-42901] [SC-126459][connect][PYTHON] Memindahkan
StorageLevelke file terpisah untuk menghindari potensi masalahfile recursively imports -
[SPARK-42894] [SC-126451][connect] Dukungan
cache/persist/unpersist/storageLeveluntuk klien Spark connect jvm - [SPARK-42792] [SC-125852][ss] Tambahkan dukungan untuk WRITE_FLUSH_BYTES untuk RocksDB yang digunakan dalam operator stateful streaming
- [SPARK-41233] [SC-126441][connect][PYTHON] Tambahkan array_prepend ke klien Python Spark Connect
- [SPARK-42681] [SC-125149][sql] Melonggarkan batasan pengurutan untuk ALTER TABLE ADD|GANTI deskriptor kolom
- [SPARK-42889] [SC-126367][connect][PYTHON] Implementasikan cache, persist, unpersist, dan storageLevel
- [SPARK-42824] [SC-125985][connect][PYTHON] Berikan pesan kesalahan yang jelas untuk atribut JVM yang tidak didukung
- [SPARK-42340] [SC-126131][connect][PYTHON] Memimplementasikan API Pemetaan Kelompok
- [SPARK-42892] [SC-126454][sql] Memindahkan sameType dan metode terkait dari DataType
-
[SPARK-42827] [SC-126126][connect] Dukungan
functions#array_prependuntuk klien Scala connect -
[SPARK-42823] [SC-125987][sql]
spark-sqlshell mendukung namespace multipart untuk inisialisasi - [SPARK-42817] [SC-125960][core] Mencatat nama shuffle service sekali dalam ApplicationMaster
- [SPARK-42786] [SC-126438][connect] Pilihan Tertgetik
-
[SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementasikan fungsi ml
{array_to_vector, vector_to_array} - [SPARK-42052] [SC-126439][sql] Dukungan Codegen untuk HiveSimpleUDF
-
[SPARK-41233] [SC-126110][sql][PYTHON] Tambahkan
array_prependfungsi -
[SPARK-42864] [SC-126268][ml][3.4] Buat
IsotonicRegression.PointsAccumulatorprivat - [SPARK-42876] [SC-126281][sql] DataType's physicalDataType harus bersifat privat[sql]
- [SPARK-42101] [SC-125437][sql] Membuat AQE mendukung InMemoryTableScanExec
- [SPARK-41290] [SC-124030][sql] Mendukung ekspresi GENERATED ALWAYS AS untuk kolom dalam pernyataan buat/ganti tabel
-
[SPARK-42870] [SC-126220][connect] Memindahkan
toCatalystValuekeconnect-common - [SPARK-42247] [SC-126107][connect][PYTHON] Memperbaiki UserDefinedFunction agar memiliki returnType
- [SPARK-42875] [SC-126258][connect][PYTHON] Perbaiki toPandas untuk menangani zona waktu dan jenis peta dengan benar
- [SPARK-42757] [SC-125626][connect] Menerapkan textFile untuk DataFrameReader
- [SPARK-42803] [SC-126081][core][SQL][ml] Gunakan fungsi getParameterCount alih-alih getParameterTypes.length
-
[SPARK-42833] [SC-126043][sql] Refactor
applyExtensionsdiSparkSession - [SPARK-41765] Kembalikan "[SC-123550][sql] Tarik keluar metrik tulis v1...
- [SPARK-42848] [SC-126105][connect][PYTHON] Mengimplementasikan DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][connect][PYTHON] Mendukung UserDefinedType dalam Spark Connect
- [SPARK-42818] [SC-125861][connect][PYTHON] Implementasikan DataFrameReader/Writer .jdbc
- [SPARK-42812] [SC-125867][connect] Tambahkan client_type ke pesan addArtifactsRequest protobuf
- [SPARK-42772] [SC-125860][sql] Ubah nilai default opsi JDBC tentang pengaktifan fitur push down menjadi true
- [SPARK-42771] [SC-125855][sql] Refaktorisasi HiveGenericUDF
- [SPARK-25050] [SC-123839][sql] Avro: menulis serikat pekerja yang kompleks
-
[SPARK-42765] [SC-125850][connect][PYTHON] Aktifkan impor
pandas_udfdaripyspark.sql.connect.functions -
[SPARK-42719] [SC-125225][core]
MapOutputTracker#getMapLocationharus menghormatispark.shuffle.reduceLocality.enabled - [SPARK-42480] [SC-125173][sql] Meningkatkan performa penghapusan partisi
- [SPARK-42689] [SC-125195][core][SHUFFLE] Izinkan ShuffleDriverComponent untuk menyatakan apakah data shuffle disimpan secara andal
-
[SPARK-42726] [SC-125279][connect][PYTHON] Mengimplementasikan
DataFrame.mapInArrow - [SPARK-41765] [SC-123550][sql] Pisahkan metrik penulisan v1 ke WriteFiles
- [SPARK-41171] [SC-124191][sql] Menyimpulkan dan mendorong batas jendela melalui jendela jika partitionSpec kosong
- [SPARK-42686] [SC-125292][core] Tangguhkan pemformatan untuk pesan debug di TaskMemoryManager
- [SPARK-42756] [SC-125443][connect][PYTHON] Fungsi pembantu untuk mengonversi literal proto menjadi nilai dalam Klien Python
-
[SPARK-42793] [SC-125627][connect]
connectmodul memerlukanbuild_profile_flags -
[SPARK-42701] [SC-125192][sql] Tambahkan
try_aes_decrypt()fungsi - [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame tidak berfungsi dengan skema yang tidak dapat diubah ke null
- [SPARK-42733] [SC-125542][connect][Followup] Write tanpa path dan table
- [SPARK-42777] [SC-125525][sql] Dukungan mengonversi statistik katalog TimestampNTZ ke statistik rencana
-
[SPARK-42770] [SC-125558][connect] Tambahkan
truncatedTo(ChronoUnit.MICROS)untuk membuatSQLImplicitsTestSuitedalam tes harian Java 17 tugas GA berhasil lulus - [SPARK-42752] [SC-125550][pyspark][SQL] Membuat pengecualian PySpark dapat dicetak selama inisialisasi
- [SPARK-42732] [SC-125544][pyspark][CONNECT] Mendukung metode getActiveSession pada sesi spark connect.
-
[SPARK-42755] [SC-125442][connect] Konversi nilai harfiah faktor ke
connect-common - [SPARK-42747] [SC-125399][ml] Perbaiki status internal LoR dan AFT yang salah
- [SPARK-42740] [SC-125439][sql] Memperbaiki bug bahwa pushdown offset atau pagination tidak berfungsi untuk beberapa dialek bawaan.
- [SPARK-42745] [SC-125332][sql] Peningkatan AliasAwareOutputExpression berfungsi dengan DSv2
- [SPARK-42743] [SC-125330][sql] Dukungan menganalisis kolom TimestampNTZ
- [SPARK-42721] [SC-125371][koneksi] penyadap pencatatan RPC
- [SPARK-42691] [SC-125397][connect][PYTHON] Menerapkan Dataset.semanticHash
- [SPARK-42688] [SC-124922][connect] ganti nama Connect proto Request client_id ke session_id
- [SPARK-42310] [SC-122792][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][core] Optimalkan rutinitas Utils.bytesToString
- [SPARK-42725] [SC-125296][connect][PYTHON] Membuat LiteralExpression mendukung parameter array
- [SPARK-42702] [SC-125293][spark-42623][SQL] Mendukung kueri terparameter dalam subkueri dan CTE
- [SPARK-42697] [SC-125189][webui] Memperbaiki /api/v1/applications untuk mengembalikan total waktu aktif ketimbang 0 untuk bidang durasi.
- [SPARK-42733] [SC-125278][connect][PYTHON] Memperbaiki fungsi DataFrameWriter.save agar dapat bekerja tanpa parameter jalur
- [SPARK-42376] [SC-124928][ss] Pengantar penyebaran watermark antaroperator
- [SPARK-42710] [SC-125205][connect][PYTHON] Ganti nama FrameMap proto menjadi MapPartitions
- [SPARK-37099] [SC-123542][sql] Perkenalkan batas grup Jendela untuk filter berbasis peringkat untuk mengoptimalkan komputasi top-k
- [SPARK-42630] [SC-125207][connect][PYTHON] Memperkenalkan UnparsedDataType dan menunda penguraian string DDL hingga SparkConnectClient tersedia
- [SPARK-42690] [SC-125193][connect] Menerapkan fungsi penguraian CSV/JSON untuk klien Scala
-
[SPARK-42709] [SC-125172][python] Hapus asumsi
__file__tersedia - [SPARK-42318] [SC-122648][spark-42319][SQL] Tetapkan nama ke LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][sql] Mendukung pengurai data jenis json "timestamp_ltz" sebagai TimestampType
- [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def schema() tidak boleh menyimpan skema
- [SPARK-42643] [SC-125152][connect][PYTHON] Mendaftarkan fungsi yang ditentukan pengguna Java (agregat)
- [SPARK-42656] [SC-125177][connect][Followup] Perbaiki skrip spark-connect
- [SPARK-41516] [SC-123899] [SQL] Perbolehkan dialek jdbc untuk mengambil alih kueri yang digunakan untuk membuat tabel
- [SPARK-41725] [SC-124396][connect] Eksekusi Cepat dari DF.sql()
-
[SPARK-42687] [SC-124896][ss] Pesan kesalahan yang lebih baik untuk operasi yang tidak didukung
pivotdi Streaming - [SPARK-42676] [SC-124809][ss] Tulis titik pemeriksaan sementara untuk kueri streaming ke sistem file lokal bahkan jika FS default diatur secara berbeda
- [SPARK-42303] [SC-122644][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][sql] Pastikan setidaknya satu unit waktu setelah "interval"
- [SPARK-42649] [SC-124576][core] Hapus header Lisensi Apache standar dari bagian atas file sumber pihak ketiga
- [SPARK-42611] [SC-124395][sql] Sisipkan pemeriksaan panjang karakter/varchar untuk kolom internal selama pemrosesan resolusi
- [SPARK-42419] [SC-124019][connect][PYTHON] Migrasi ke kerangka kesalahan untuk Spark Connect Column API.
- [SPARK-42637] [SC-124522][connect] Tambahkan SparkSession.stop()
- [SPARK-42647] [SC-124647][python] Ubah alias untuk jenis numpy yang tidak digunakan lagi dan dihapus
- [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver hanya akan menutup sessionState Hive yang sudah dimulai
[SPARK-42593] [SC-124405][ps] Depresiasi & hapus API yang akan dihilangkan di pandas 2.0.- [SPARK-41870] [SC-124402][connect][PYTHON] Perbaiki createDataFrame untuk menangani nama kolom duplikat
- [SPARK-42569] [SC-124379][connect] Melempar pengecualian untuk API sesi yang tidak didukung
- [SPARK-42631] [SC-124526][connect] Mendukung ekstensi kustom di klien Scala
- [SPARK-41868] [SC-124387][connect][PYTHON] Perbaiki createDataFrame untuk mendukung durasi
- [SPARK-42572] [SC-124171][sql][SS] Perbaiki perilaku untuk StateStoreProvider.validateStateRowFormat
Pembaruan pemeliharaan
Lihat pemeliharaan pembaruan Databricks Runtime 13.1.
Lingkungan sistem
- Sistem Operasi: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Danau Delta: 2.4.0
Perpustakaan Python terinstal
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| direktori aplikasi | 1.4.4 | argon2-cffi | 21.3.0 | Pengikatan Argon2-cffi | 21.2.0 |
| asttoken | 2.2.1 | atribut | 21.4.0 | panggilan balik | 0.2.0 |
| beautifulsoup4 | 4.11.1 | hitam | 22.6.0 | pemutih | 4.1.0 |
| blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| sertifikat | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | klik | 8.0.4 | Kriptografi | 37.0.1 |
| pengendara sepeda | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
| debugpy | 1.5.1 | penghias | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.6 | konversi docstring ke markdown | 0.12 | titik masuk | 0,4 |
| Mengeksekusi | 1.2.0 | gambaran umum aspek | 1.0.3 | fastjsonschema | 2.16.3 |
| filelock | 3.12.0 | alat pengelola font | 4.25.0 | googleapis-common-protos | 1.56.4 |
| grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| IDNA | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
| ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jeepney, kendaraan umum khas Filipina | 0.7.1 | Jinja2 | 2.11.3 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
| jupyter-client (klien Jupyter) | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | gantungan kunci | 23.5.0 | kiwisolver | 1.4.2 |
| launchpadlib | 1.10.16 | lazr.restfulclient (klien layanan web yang menggunakan RESTful) | 0.14.4 | lazr.uri | 1.0.6 |
| MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline (modul untuk menampilkan grafik secara inline) | 0.1.6 |
| Mccabe | 0.7.0 | penyetelan salah | 0.8.4 | more-itertools | 8.10.0 |
| mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| buku catatan | 6.4.12 | numpy (perpustakaan Python untuk operasi numerik) | 1.21.5 | oauthlib | 3.2.0 |
| pengemasan | 21.3 | Panda | 1.4.4 | Pandocfilters | 1.5.0 |
| parso | 0.8.3 | pathspec | 0.9.0 | kambing hitam | 0.5.2 |
| pexpect | 4.8.0 | pickleshare | 0.7.5 | Bantal | 9.2.0 |
| pipa | 22.2.2 | platformdirs | 2.5.2 | plotly | 5.9.0 |
| pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
| protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
| pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
| Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
| pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
| pyzmq | 23.2.0 | requests | 2.28.1 | tali | 1.7.0 |
| s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy (perpustakaan Python untuk komputasi ilmiah) | 1.9.1 |
| Seaborn (perpustakaan Python untuk visualisasi data) | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
| setuptools | 63.4.1 | Enam | 1.16.0 | alat penyaring sup | 2.3.1 |
| ssh-import-id | 5.11 | stack-data | 0.6.2 | statsmodels (paket Python untuk pemodelan statistik) | 0.13.2 |
| kegigihan | 8.1.0 | selesai | 0.13.1 | jalur uji | 0.6.0 |
| threadpoolctl | 2.2.0 | Tokenisasi-RT | 4.2.1 | tomli | 2.0.1 |
| Tornado | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
| ujson | 5.4.0 | pembaruan otomatis tanpa pengawasan | 0.1 | urllib3 | 1.26.11 |
| virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| pengkodean web | 0.5.1 | apa itu patch | 1.0.2 | wheel | 0.37.1 |
| widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Perpustakaan R terpasang
Pustaka R telah diinstal dari cuplikan Microsoft CRAN pada 2023-02-10.
| Perpustakaan | Versi | Perpustakaan | Versi | Perpustakaan | Versi |
|---|---|---|---|---|---|
| anak panah | 10.0.1 | askpass | 1.1 | pastikanbahwa | 0.2.1 |
| pemindahan fitur ke versi lama (backports) | 1.4.1 | dasar | 4.2.2 | base64enc | 0.1-3 |
| sedikit | 4.0.5 | bit-64 | 4.0.5 | blob | 1.2.3 |
| sepatu bot | 1.3-28 | menyeduh | 1,0-8 | Brio | 1.1.3 |
| sapu | 1.0.3 | bslib | 0.4.2 | cashmere | 1.0.6 |
| layanan panggilan | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
| kronogram | 2.3-59 | class | 7.3-21 | CLI | 3.6.0 |
| pemangkas | 0.8.0 | jam dinding | 0.6.1 | kluster | 2.1.4 |
| codetools | 0.2-19 | ruang warna | 2.1-0 | commonmark | 1.8.1 |
| pengkompilasi | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
| kriyon | 1.5.2 | kredensial | 1.3.2 | melengkung | 5.0.0 |
| data.table (sebuah paket untuk pengolahan data table) | 1.14.6 | kumpulan data | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | deskripsi | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | digest | 0.6.31 | pencahayaan turun | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| elipsis | 0.3.2 | menilai | 0.20 | penggemar | 1.0.4 |
| warna-warna | 2.1.1 | pemetaan cepat | 1.1.0 | fontawesome | 0.5.0 |
| untuk kucing | 1.0.0 | foreach (pengulangan untuk setiap elemen) | 1.5.2 | asing | 0.8-82 |
| bengkel pandai besi | 0.2.0 | fs | 1.6.1 | masa depan | 1.31.0 |
| menerapkan di masa depan | 1.10.0 | kumur | 1.3.0 | obat generik | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | variabel global | 0.16.2 |
| lem | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | Grafik | 4.2.2 | grDevices | 4.2.2 |
| kisi | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
| gtabel | 0.3.1 | topi keras | 1.2.0 | tempat aman | 2.5.1 |
| lebih tinggi | 0.10 | HMS | 1.1.2 | htmltools | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.7 | Pengiterasi | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
| Pelabelan | 0.4.2 | nanti | 1.3.0 | rangka | 0.20-45 |
| lahar | 1.7.1 | siklus hidup | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.1 | magrittr | 2.0.3 | Markdown | 1.5 |
| Massa | 7.3-58.2 | Matrix | 1.5-1 | memosankan | 2.0.1 |
| Metode | 4.2.2 | mgcv | 1.8-41 | pantomim | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | Agustus 2016 - Januari 2017 | openssl | 2.0.5 | paralel | 4.2.2 |
| secara paralel | 1.34.0 | pilar | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | apresiasi | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | ProsesX | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | Kemajuan | 1.2.2 |
| progresr | 0.13.0 | janji | 1.2.0.1 | proto | 1.0.0 |
| proksi | 0,4-27 | P.S. | 1.7.2 | menggeram lembut | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest (algoritma pembelajaran mesin) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| alat baca | 2.1.3 | readxl (membaca file Excel) | 1.4.2 | recipes | 1.0.4 |
| pertandingan ulang | 1.0.1 | pertandingan ulang 2 | 2.1.2 | pengontrol jarak jauh | 2.4.2 |
| contoh replikasi | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | timbangan / sisik | 1.2.1 |
| selektor | 0,4-2 | informasi sesi | 1.2.2 | bentuk | 1.4.6 |
| mengkilap | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.0 | spasial | 7.3-15 | garis lengkung | 4.2.2 |
| sqldf | 0,4-11 | SQUAREM | 2021.1 | statistik | 4.2.2 |
| statistik4 | 4.2.2 | string | 1.7.12 | stringr | 1.5.0 |
| bertahan hidup | 3.5-3 | Sistem | 3.4.1 | systemfonts | 1.0.4 |
| bahasa pemrograman Tcl/Tk | 4.2.2 | ujiitu | 3.1.6 | pemformatan teks | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | perubahan jam | 0.2.0 | TanggalWaktu | 4022.108 |
| tinytex | 0,44 | perangkat | 4.2.2 | tzdb | 0.3.0 |
| urlchecker | 1.0.1 | gunakan ini | 2.1.6 | utf8 | 1.2.3 |
| Utilitas | 4.2.2 | UUID (Pengidentifikasi Unik Universal) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| kumis | 0.4.1 | dengan | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | zip | 2.2.2 |
Pustaka Java dan Scala terinstal (versi kluster Scala 2.12)
| ID Kelompok | Identifikasi Artefak | Versi |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klien Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | AWS Java SDK untuk CloudHSM | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (konfigurasi SDK Java untuk AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-impor-ekspor | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-Pembelajaran Mesin | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks (SDK Java untuk OpsWorks) | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) | 1.12.390 |
| com.amazonaws | SDK Java untuk Storage Gateway AWS | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | AWS Java SDK Dukungan | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | aliran | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | bayangan-kriogenik | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | teman sekelas | 1.3.4 |
| com.fasterxml.jackson.core | Jackson Annotations | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.caffeine | kafein | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1 |
| com.github.fommil.netlib | referensi_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | sistem_asli-java | 1.1 |
| com.github.fommil.netlib | sistem_asli-java | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-penduduk asli |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-penduduk asli |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.9 |
| com.google.crypto.tink | tink | 1.7.0 |
| com.google.errorprone | Annotasi yang rentan terhadap kesalahan | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | jambu | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | pembuat profil | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | kode_sumber_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (algoritma kompresi) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| koleksi umum | koleksi umum | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| unggah berkas pada commons | unggah berkas pada commons | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (perpustakaan Java untuk fungsi pencatatan) | commons-logging (perpustakaan Java untuk fungsi pencatatan) | 1.1.3 |
| kolam umum | kolam umum | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Tidak peduli | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor udara | 0,21% |
| io.delta | delta-sharing-spark_2.12 | 0.6.4 |
| io.dropwizard.metrics | inti metrik | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | pengukuran-pemeriksaan kesehatan | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrik-jmx | 4.2.10 |
| io.dropwizard.metrics | metrik-json | 4.2.10 |
| io.dropwizard.metrics | metrik-jvm | 4.2.10 |
| io.dropwizard.metrics | metrik-servlet | 4.2.10 |
| io.netty | netty-all | 4.1.87.Final |
| io.netty | Netty Buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll (kelas transportasi netty - epoll) | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_umum | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway (gateway pendorong sederhana) | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | pengumpul | 0.12.0 |
| jakarta.anotasi | jakarta.anotasi-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivasi | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | mentimun acar | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| jaring.bunga salju | snowflake-ingest-sdk | 0.9.6 |
| jaring.bunga salju | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_gabungan_semua | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | ant | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | ant-launcher | 1.9.16 |
| org.apache.arrow | format tanda panah | 11.0.0 |
| org.apache.arrow | inti-memori-panah | 11.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 11.0.0 |
| org.apache.arrow | arrow-vector | 11.0.0 |
| org.apache.avro | Avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-koleksi4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text (teks umum) | 1.10.0 |
| org.apache.curator | kurator dan klien | 2.13.0 |
| org.apache.curator | kerangka kerja kurator | 2.13.0 |
| org.apache.curator | kurasi resep | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | pertandingan derbi | 10.14.2.0 |
| org.apache.hadoop | lingkungan kerja klien Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (antarmuka perintah untuk Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API penyimpanan hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) | 2.3.9 |
| org.apache.hive.shims | Pengatur Jadwal Hive Shims | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | tanaman anggur | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-shims | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.22 |
| org.apache.yetus | anotasi penonton | 0.13.0 |
| org.apache.zookeeper | penjaga kebun binatang | 3.6.3 |
| org.apache.zookeeper | penjaga kebun binatang-jute | 3.6.3 |
| org.checkerframework | pemeriksa kualitas | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Pengompilasi Umum | 3.0.16 |
| org.codehaus.janino | Januari | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
| org.eclipse.jetty | lanjutan dermaga | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-http (protokol HTTP untuk server Jetty) | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
| org.eclipse.jetty | Jetty Plus | 9.4.50.v20221201 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.50.v20221201 |
| org.eclipse.jetty | keamanan jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | Jetty Server | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
| org.eclipse.jetty | Aplikasi web Jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-klien | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-pemindai lokasi | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-penanda-sumber-daya | 1.0.3 |
| org.glassfish.hk2.external | aopalliance (dikemas ulang) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-inti | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | jersey biasa | 2.36 |
| org.glassfish.jersey.core | Jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | Hibernate Validator | 6.1.7.Terakhir |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotasi | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client (klien Java untuk MariaDB) | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | pengganjal | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | antarmuka pengujian | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | kompatibel dengan ScalaTest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |