Databricks Runtime 13.1 (EoS)

Nota

Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan dan akhir masa pakai. Untuk semua versi Databricks Runtime yang didukung, lihat catatan rilis Versi dan kompatibilitas Databricks Runtime.

Catatan rilis berikut memberikan informasi tentang Databricks Runtime 13.1, didukung oleh Apache Spark 3.4.0.

Databricks merilis versi ini pada Bulan Mei 2023.

Fitur dan peningkatan baru

Dukungan kluster untuk JDK 17 (Pratinjau Umum)

Databricks sekarang menyediakan dukungan kluster untuk Java Development Kit (JDK) 17. Lihat Databricks SDK untuk Java.

Menambahkan, mengubah, atau menghapus data dalam tabel streaming

Sekarang Anda dapat menggunakan pernyataan DML untuk memodifikasi tabel streaming yang diterbitkan ke Unity Catalog by Lakeflow Spark Declarative Pipelines. Lihat Menambahkan, mengubah, atau menghapus data dalam tabel streaming dan menambahkan, mengubah, atau menghapus data dalam tabel streaming target. Anda juga dapat menggunakan pernyataan DML untuk memodifikasi tabel streaming yang dibuat di Databricks SQL.

Baca Kafka dengan SQL

Anda sekarang dapat menggunakan read_kafka fungsi SQL untuk membaca data Kafka. Streaming dengan SQL hanya didukung di DLT atau dengan tabel streaming di Databricks SQL. Lihat fungsi bernilai tabel read_kafka.

Fungsi bawaan SQL baru

Fungsi berikut telah ditambahkan:

Dukungan Katalog Unity untuk pustaka Python berlingkup kluster

Katalog Unity memiliki beberapa batasan pada penggunaan pustaka. Pada Databricks Runtime 13.1 ke atas, pustaka Python bercakupan kluster didukung, termasuk file Python wheel yang diunggah sebagai file ruang kerja. Pustaka yang direferensikan menggunakan jalur file DBFS tidak didukung, baik di akar DBFS atau lokasi eksternal yang dipasang ke DBFS. Pustaka non-Python tidak didukung. Lihat Pustaka cakupan komputasi.

Pada Runtime Databricks 13.0 dan versi sebelumnya, pustaka yang cakupannya terbatas pada kluster tidak didukung pada kluster yang menggunakan mode akses standar (sebelumnya mode akses bersama) di ruang kerja yang mendukung Unity Catalog.

Pengaktifan default yang diperluas untuk optimisasi penulisan di Katalog Unity

Dukungan tulis default yang dioptimalkan untuk tabel Delta yang terdaftar di Unity Catalog telah diperluas untuk menyertakan pernyataan CTAS dan operasi INSERT untuk tabel yang dipartisi. Perilaku ini selaras dengan default pada gudang SQL. Lihat Penulisan Teroptimasi.

Dukungan tingkat lanjut untuk operator stateful dalam beban kerja Streaming Terstruktur

Anda sekarang dapat menautkan beberapa operator stateful bersama-sama, yang memungkinkan Anda memberikan hasil dari operasi seperti agregasi berbasis jendela ke operasi stateful lainnya seperti penggabungan. Lihat Apa itu streaming stateful?.

Klon Delta untuk Unity Catalog sedang dalam Pratinjau Publik

Anda sekarang dapat menggunakan kloning dangkal untuk membuat tabel terkelola Unity Catalog baru dari tabel terkelola Unity Catalog yang ada. Lihat klon Shallow untuk tabel Unity Catalog.

Dukungan Pub/Sub untuk Streaming Terstruktur

Anda sekarang dapat menggunakan konektor bawaan untuk berlangganan Google Pub/Sub dengan Streaming Terstruktur. Lihat Berlangganan Google Pub/Sub.

Menghilangkan duplikat dalam penanda waktu di Streaming Terstruktur

Anda sekarang dapat menggunakan dropDuplicatesWithinWatermark dalam kombinasi dengan ambang batas watermark tertentu untuk menghilangkan duplikasi rekaman dalam Streaming Terstruktur. Lihat Menghilangkan duplikat dalam tanda air.

Dukungan yang diperluas untuk konversi Delta dari tabel Apache Iceberg dengan kolom partisi yang dipotong

Anda sekarang dapat menggunakan CLONE dan CONVERT TO DELTA dengan tabel Apache Iceberg yang memiliki partisi yang ditentukan pada kolom yang terpotong dari jenis int, long, dan string. Kolom-kolom terpangkas dari tipe decimal tidak didukung.

Melakukan streaming perubahan skema dengan pemetaan kolom di Delta Lake

Anda sekarang dapat menyediakan lokasi pelacakan skema untuk mengaktifkan streaming dari tabel Delta dengan pemetaan kolom yang diaktifkan. Lihat Pemetaan kolom dan streaming.

Hapus VERSI AWAL

START VERSION sekarang tidak digunakan lagi untuk ALTER SHARE.

Ekspresi H3 baru tersedia dengan Python

Ekspresi h3_coverash3 dan h3_coverash3string tersedia dengan Python.

Pemulihan kesalahan perangkat lunak

Parquet failOnUnknownFields tidak lagi diam-diam mengabaikan data pada ketidakcocokan tipe.

Jika file Parquet dibaca dengan opsi failOnUnknownFields saja atau dengan Auto Loader dalam mode evolusi skema failOnNewColumns, kolom yang memiliki jenis data yang berbeda akan gagal dan sistem merekomendasikan penggunaan rescuedDataColumn. Auto Loader sekarang membaca dengan benar dan tidak lagi menyelamatkan jenis Bilangan Bulat, Pendek, atau Byte jika salah satu jenis data ini disediakan. File Parquet menunjukkan salah satu dari dua jenis lainnya.

Perubahan mendasar

Tingkatkan versi sqlite-jdbc ke 3.42.0.0 ke alamat CVE-2023-32697

Tingkatkan versi sqlite-jdbc dari 3.8.11.2 ke 3.42.0.0. API versi 3.42.0.0 tidak sepenuhnya kompatibel dengan 3.8.11.2. Jika menggunakan sqlite-jdbc dalam kode Anda, periksa laporan kompatibilitas sqlite-jdbc untuk detailnya. Jika Anda bermigrasi ke 13.1 dan menggunakan sqlite, konfirmasikan metode Anda dan kembalikan jenis dalam versi 3.42.0.0.

Peningkatan pustaka

  • Pustaka Python yang ditingkatkan:
    • ringkasan faset dari 1.0.2 hingga 1.0.3
    • filelock dari 3.10.7 hingga 3.12.0
    • pyarrow dari 7.0.0 hingga 8.0.0
    • tenacity dari 8.0.1 hingga 8.1.0
  • Pustaka R yang ditingkatkan:
  • Pustaka Java yang ditingkatkan:
    • com.github.ben-manes.caffeine.caffeine dari 2.3.4 hingga 2.9.3
    • io.delta.delta-sharing-spark_2.12 dari 0.6.8 hingga 0.6.4
    • net.snowflake.snowflake-jdbc dari 3.13.29 ke 3.13.22
    • org.checkerframework.checker-qual dari 3.5.0 hingga 3.19.0
    • org.scalactic.scalactic_2.12 dari 3.0.8 ke 3.2.15
    • org.scalatest.scalatest_2.12 dari 3.0.8 ke 3.2.15
    • org.xerial.sqlite-jdbc dari 3.8.11.2 ke 3.42.0.0

Apache Spark

Databricks Runtime 13.1 mencakup Apache Spark 3.4.0. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 13.0 (EoS), serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:

  • [SPARK-42719] [DBRRM-199][sc-131578] Kembali "[SC-125225] 'MapOutputTracker#getMap...
  • [SPARK-39696] [DBRRM-166][sc-130056][CORE] Mengembalikan [SC-127830]/
  • [SPARK-43331] [SC-130064][connect] Tambahkan Spark Connect SparkSession.interruptAll
  • [SPARK-43332] [SC-130051][connect][PYTHON] Memungkinkan untuk memperluas ChannelBuilder untuk SparkConnectClient
  • [SPARK-43323] [SC-129966][sql][PYTHON] Memperbaiki DataFrame.toPandas dengan Arrow diaktifkan untuk menangani pengecualian dengan benar
  • [SPARK-42940] [SC-129896][ss][CONNECT] Meningkatkan manajemen sesi untuk kueri streaming
  • [SPARK-43032] [SC-125756] [CONNECT][ss] Tambahkan manajer kueri Streaming
  • [SPARK-16484] [SC-129975][sql] Tambahkan dukungan untuk Datasketches HllSketch
  • [SPARK-43260] [SC-129281][python] Migrasikan kesalahan tipe panah Pandas pada Spark SQL ke dalam kelas kesalahan.
  • [SPARK-41766] [SC-129964][core] Menangani permintaan penonaktifan yang dikirim sebelum pendaftaran eksekutor
  • [SPARK-43307] [SC-129971][python] Memigrasikan kesalahan nilai PandasUDF ke dalam kelas kesalahan
  • [SPARK-43206] [SC-129903] [SS] [SAMBUNGKAN] Pengecualian StreamingQuery() menyertakan pelacakan tumpukan
  • [SPARK-43311] [SC-129905][ss] Tambahkan peningkatan manajemen memori penyedia penyimpanan status RocksDB
  • [SPARK-43237] [SC-129898][core] Menangani pesan pengecualian null di log peristiwa
  • [SPARK-43320] [SC-129899][sql][HIVE] Memanggil langsung Apache Hive 2.3.9 API
  • [SPARK-43270] [SC-129897][python] Implement __dir__() in pyspark.sql.dataframe.DataFrame untuk menyertakan kolom
  • [SPARK-43183] Kembalikan "[SC-128938][ss] Perkenalkan panggilan balik baru "...
  • [SPARK-43143] [SC-129902] [SS] [KONEKSI] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675][sql] Ganti kelas kesalahan _LEGACY_ERROR_TEMP_2022 dengan kesalahan internal
  • [SPARK-43198] [SC-129470][connect] Memperbaiki "Tidak dapat menginisialisasi kelas ammonite..." kesalahan saat menggunakan filter
  • [SPARK-43165] [SC-129777][sql] Memindahkan canWrite ke DataTypeUtils
  • [SPARK-43298] [SC-129729][python][ML] predict_batch_udf dengan input skalar gagal dengan ukuran batch sebesar satu
  • [SPARK-43298] [SC-129700]Kembalikan "[PYTHON][ml] predict_batch_udf dengan input skalar gagal dengan ukuran batch satu"
  • [SPARK-43052] [SC-129663][core] Menangani jejak tumpukan dengan nama berkas null dalam log acara
  • [SPARK-43183] [SC-128938][ss] Memperkenalkan callback baru "onQueryIdle" ke StreamingQueryListener
  • [SPARK-43209] [SC-129190][connect][PYTHON] Migrasikan kesalahan Ekspresi ke kelas kesalahan
  • [SPARK-42151] [SC-128754][sql] Sejajarkan UPDATE penugasan dengan atribut tabel
  • [SPARK-43134] [SC-129468] [SAMBUNGKAN] [SS] API exception() StreamingQuery pada klien JVM
  • [SPARK-43298] [SC-129699][python][ML] predict_batch_udf dengan input skalar gagal dengan ukuran batch satu
  • [SPARK-43248] [SC-129660][sql] Serialisasi/deserialisasi Path yang tidak perlu pada pengumpulan statistik partisi secara paralel
  • [SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Memperkenalkan PySparkNotImplementedError
  • [SPARK-43146] [SC-128804][connect][PYTHON] Terapkan evaluasi dini untuk repr dan repr_html
  • [SPARK-42953] [SC-129469][connect][Followup] Perbaiki build pengujian maven untuk pengujian UDF klien Scala
  • [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
  • [SPARK-43136] [SC-129358][connect] Menambahkan fungsi groupByKey + mapGroup + coGroup
  • [SPARK-43156] [SC-129672][sc-128532][SQL] Perbaiki COUNT(*) is null bug dalam subkueri skalar berkorelasi
  • [SPARK-43046] [SC-129110] [SS] [Connect] Diimplementasikan API Python dropDuplicatesWithinWatermark untuk Spark Connect
  • [SPARK-43199] [SC-129467][sql] Make InlineCTE idempotent
  • [SPARK-43293] [SC-129657][sql] __qualified_access_only harus diabaikan di kolom normal
  • [SPARK-43276] [SC-129461][connect][PYTHON] Migrasikan kesalahan Jendela Spark Connect ke kelas kesalahan
  • [SPARK-43174] [SC-129109][sql] Memperbaiki SparkSQLCLIDriver completer
  • [SPARK-43084] [SC-128654] [SS] Menambahkan dukungan applyInPandasWithState untuk spark connect
  • [SPARK-43119] [SC-129040][sql] Dukungan Dapatkan Kata Kunci SQL Secara Dinamis Thru JDBC API dan TVF
  • [SPARK-43082] [SC-129112][connect][PYTHON] UDF Python yang dioptimalkan oleh Apache Arrow di Spark Connect
  • [SPARK-43085] [SC-128432][sql] Mendukung penugasan DEFAULT kolom untuk nama tabel multi-bagian
  • [SPARK-43226] [LC-671] Tentukan ekstraktor untuk metadata konstanta file
  • [SPARK-43210] [SC-129189][connect][PYTHON] Memperkenalkan PySparkAssertionError
  • [SPARK-43214] [SC-129199][sql] Pasca metrik sisi driver untuk LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] Memperbaiki ReplE2ESuite yang gagal secara konsisten dengan JDK 17
  • [SPARK-43268] [SC-129249][sql] Gunakan kelas kesalahan yang tepat saat pengecualian dibangun dengan pesan
  • [SPARK-43142] [SC-129299] Memperbaiki ekspresi DSL pada atribut dengan karakter khusus
  • [SPARK-43129] [SC-128896] API inti Scala untuk streaming Spark Connect
  • [SPARK-43233] [SC-129250] [SS] Menambahkan pencatatan log untuk Pembacaan Berkelompok Kafka pada partisi topik, rentang offset, dan ID tugas
  • [SPARK-43249] [SC-129195][connect] Perbaiki statistik yang hilang untuk Perintah SQL
  • [SPARK-42945] [SC-129188][connect] Dukungan PYSPARK_JVM_STACKTRACE_ENABLED di Spark Connect
  • [SPARK-43178] [SC-129197][connect][PYTHON] Memigrasikan kesalahan UDF ke dalam kerangka kerja kesalahan PySpark
  • [SPARK-43123] [SC-128494][sql] Metadata bidang internal tidak boleh bocor ke katalog
  • [SPARK-43217] [SC-129205] Berulang dengan benar dalam peta/array berlapis di findNestedField
  • [SPARK-43243] [SC-129294][python][CONNECT] Tambahkan param tingkat ke printSchema untuk Python
  • [SPARK-43230] [SC-129191][connect] Sederhanakan DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403][sql] Menghormati RequiresDistributionAndOrdering dalam CTAS/RTAS
  • [SPARK-43234] [SC-129192][connect][PYTHON] Migrasi ValueError dari Conect DataFrame ke kelas kesalahan
  • [SPARK-43212] [SC-129187][ss][PYTHON] Memindahkan kesalahan Streaming Terstruktur ke kategori kesalahan
  • [SPARK-43239] [SC-129186][ps] Hapus null_counts dari info()
  • [SPARK-43190] [SC-128930][sql] ListQuery.childOutput harus konsisten dengan keluaran dari child
  • [SPARK-43191] [SC-128924][core] Ganti refleksi dengan panggilan langsung untuk Hadoop CallerContext
  • [SPARK-43193] [SC-129042][ss] Hapus solusi untuk HADOOP-12074
  • [SPARK-42657] [SC-128621][connect] Dukungan untuk menemukan dan mentransfer file kelas REPL sisi klien ke server sebagai artefak
  • [SPARK-43098] [SC-77059][sql] Perbaiki bug COUNT kebenaran saat subkueri skalar memiliki klausa GROUP BY
  • [SPARK-43213] [SC-129062][python] Tambahkan DataFrame.offset ke vanilla PySpark
  • [SPARK-42982] [SC-128400][connect][PYTHON] Fix createDataFrame untuk menghormati skema ddl yang diberikan
  • [SPARK-43124] [SC-129011][sql] Dataset.show memproyeksikan CommandResults secara lokal
  • [SPARK-42998] [SC-127422][connect][PYTHON] Memperbaiki DataFrame.collect dengan null struct
  • [SPARK-41498] [SC-125343]Kembalikan " Sebarkan metadata melalui Union"
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Tambahkan API await_termination() dan pengecualian() untuk Kueri Streaming di Python
  • [SPARK-42552] [SC-128824][sql] Perbaiki strategi penguraian dua tahap pengurai antlr
  • [SPARK-43207] [SC-128937][connect] Tambahkan fungsi pembantu untuk mengekstrak nilai dari ekspresi harfiah
  • [SPARK-43186] [SC-128841][sql][HIVE] Hapus penyelesaian sementara untuk FileSinkDesc
  • [SPARK-43107] [SC-128533][sql] Wadah coalesce dalam gabungan diterapkan pada sisi streaming gabungan siaran
  • [SPARK-43195] [SC-128922][core] Hapus pembungkus serial yang tidak perlu di HadoopFSUtils
  • [SPARK-43137] [SC-128828][sql] Tingkatkan ArrayInsert jika posisi dapat dilipat dan positif.
  • [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join harus mengembalikan nilai null untuk baris yang tidak cocok
  • [SPARK-43042] [SC-128602] [SS] [Sambungkan] Menambahkan dukungan API table() untuk DataStreamReader
  • [SPARK-43153] [SC-128753][connect] Lewati pelaksanaan Spark ketika dataframe bersifat lokal
  • [SPARK-43064] [SC-128496][sql] Tab Spark SQL CLI SQL seharusnya hanya menampilkan sekali pernyataan sekali
  • [SPARK-43126] [SC-128447][sql] Tandai dua ekspresi UDF Hive sebagai stateful
  • [SPARK-43111] [SC-128750][ps][CONNECT][python] Gabungkan pernyataan berlapis if ke dalam pernyataan tunggal if
  • [SPARK-43113] [SC-128749][sql] Mengevaluasi variabel sisi aliran saat membuat kode untuk kondisi terikat
  • [SPARK-42895] [SC-127258][connect] Meningkatkan pesan kesalahan untuk sesi Spark yang dihentikan
  • [SPARK-42884] [SC-126662][connect] Tambahkan integrasi Amonite REPL
  • [SPARK-43168] [SC-128674][sql] Hapus metode PhysicalDataType dari kelas Datatype
  • [SPARK-43121] [SC-128455][sql] Gunakan BytesWritable.copyBytes alih-alih salinan manual di 'HiveInspectors
  • [SPARK-42916] [SC-128389][sql] JDBCTableCatalog Menyimpan metadata Char/Varchar di sisi baca
  • [SPARK-43050] [SC-128550][sql] Perbaiki ekspresi agregat konstruksi dengan mengganti fungsi pengelompokan
  • [SPARK-43095] [SC-128549][sql] Hindari rusaknya idempotensi strategi Once untuk batch: Infer Filters
  • [SPARK-43130] [SC-128597][sql] Pindahkan InternalType ke PhysicalDataType
  • [SPARK-43105] [SC-128456][connect] Memperpendek Byte dan String dalam pesan proto
  • [SPARK-43099] [SC-128596][sql] Gunakan getName alih-alih getCanonicalName mendapatkan nama kelas pembangun saat mendaftarkan udf ke FunctionRegistry
  • [SPARK-42994] [SC-128586][ml][CONNECT] PyTorch Distributor mendukung Mode Lokal
  • [SPARK-42859] Kembalikan "[SC-127935][connect][PS] Dukungan dasar untuk PANDAS API di Spark Connect"
  • [SPARK-43021] [SC-128472][sql] CoalesceBucketsInJoin tidak berfungsi saat menggunakan AQE
  • [SPARK-43125] [SC-128477][connect] Memperbaiki Masalah pada Connect Server yang Tidak Bisa Menangani Pengecualian dengan Pesan Null
  • [SPARK-43147] [SC-128594] memperbaiki flake8 lint untuk pemeriksaan lokal
  • [SPARK-43031] [SC-128360] [SS] [Sambungkan] Mengaktifkan pengujian unit dan doctest untuk streaming
  • [SPARK-43039] [LC-67] Mendukung bidang kustom di kolom _metadata sumber file.
  • [SPARK-43120] [SC-128407][ss] Tambahkan dukungan untuk melacak penggunaan memori blok yang disematkan untuk penyimpanan status RocksDB
  • [SPARK-43110] [SC-128381][sql] Pindahkan asIntegral ke PhysicalDataType
  • [SPARK-43118] [SC-128398][ss] Hapus pernyataan yang tidak perlu untuk UninterruptibleThread di KafkaMicroBatchStream
  • [SPARK-43055] [SC-128331][connect][PYTHON] Mendukung nama bidang bertingkat yang duplikat
  • [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable akan memungkinkan untuk menentukan tingkat penyimpanan
  • [SPARK-42985] [SC-128332][connect][PYTHON] Perbaiki createDataFrame untuk menghormati konfigurasi SQL
  • [SPARK-39696] [SC-127830][core] Perbaiki perlombaan data dalam akses ke TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335][sql] Memindahkan Integral ke PhysicalDataType
  • [SPARK-42741] [SC-125547][sql] Jangan membuka cast dalam perbandingan biner saat literal null
  • [SPARK-43057] [SC-127948][connect][PYTHON] Migrasikan kesalahan Kolom Spark Connect ke kelas kesalahan
  • [SPARK-42859] [SC-127935][connect][PS] Dukungan dasar untuk API pandas di Spark Connect
  • [SPARK-43013] [SC-127773][python] Migrasi ValueError dari DataFrame ke dalam PySparkValueError.
  • [SPARK-43089] [SC-128051][connect] Redact debug string pada UI
  • [SPARK-43028] [SC-128070][sql] Tambahkan kelas kesalahan SQL_CONF_NOT_FOUND
  • [SPARK-42999] [SC-127842][hubungkan] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937][sql] Tambahkan pengujian untuk dropDuplicates di JavaDatasetSuite
  • [SPARK-43075] [SC-127939][connect] Ubah gRPC ke grpcio saat tidak diinstal.
  • [SPARK-42953] [SC-127809][connect] Filter jenis, peta, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506][sql] Mendukung pengubahan tipe tanggal ke tipe cap waktu
  • [SPARK-42931] [SC-127933][ss] Memperkenalkan fungsi dropDuplicatesWithinWatermark
  • [SPARK-43073] [SC-127943][connect] Tambahkan konstanta untuk tipe data proto
  • [SPARK-43077] [SC-128050][sql] Meningkatkan pesan kesalahan UNRECOGNIZED_SQL_TYPE
  • [SPARK-42951] [SC-128030][ss][Connect] API DataStreamReader
  • [SPARK-43049] [SC-127846][sql] Gunakan CLOB alih-alih VARCHAR(255) untuk StringType untuk Oracle JDBC
  • [SPARK-43018] [SC-127762][sql] Perbaiki bug untuk perintah yang menggunakan literal timestamp
  • [SPARK-42855] [SC-127722][sql] Gunakan pemeriksaan null runtime di TableOutputResolver
  • [SPARK-43030] [SC-127847][sql] Deduplikasi hubungan dengan kolom metadata
  • [SPARK-42993] [SC-127829][ml][CONNECT] Membuat Distributor PyTorch kompatibel dengan Spark Connect
  • [SPARK-43058] [SC-128072][sql] Pindahkan Numerik dan Pecahan ke dalam PhysicalDataType
  • [SPARK-43056] [SC-127946][ss] Komitmen penyimpanan status RocksDB harus melanjutkan pekerjaan di latar belakang hanya jika sudah dijeda
  • [SPARK-43059] [SC-127947][connect][PYTHON] Migrasikan TypeError dari DataFrame(Pembaca|Penulis) ke dalam kelas kesalahan
  • [SPARK-43071] [SC-128018][sql] Mendukung SELECT DEFAULT dengan ORDER BY, LIMIT, OFFSET untuk INSERT relasi sumber
  • [SPARK-43061] [SC-127956][core][SQL] Perkenalkan PartitionEvaluator untuk eksekusi operator SQL
  • [SPARK-43067] [SC-127938][ss] Perbaiki lokasi file sumber daya kelas kesalahan di konektor Kafka
  • [SPARK-43019] [SC-127844][sql] Pindahkan Pemesanan ke PhysicalDataType
  • [SPARK-43010] [SC-127759][python] Memigrasikan kesalahan Kolom ke kelas kesalahan
  • [SPARK-42840] [SC-127782][sql] Ubah _LEGACY_ERROR_TEMP_2004 kesalahan ke kesalahan internal
  • [SPARK-43041] [SC-127765][sql] Memulihkan konstruktor pengecualian untuk kompatibilitas di API konektor
  • [SPARK-42939] [SC-127761][ss][CONNECT] Core streaming Python API untuk Spark Connect
  • [SPARK-42844] [SC-127766][sql] Perbarui kelas _LEGACY_ERROR_TEMP_2008 kesalahan ke INVALID_URL
  • [SPARK-42316] [SC-127720][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723][connect][PYTHON] Migrasikan kesalahan Spark Connect DataFrame ke dalam kelas kesalahan
  • [SPARK-42983] [SC-127717][connect][PYTHON] Perbaiki createDataFrame untuk menangani array numpy 0-dim dengan benar
  • [SPARK-42955] [SC-127476][sql] Melewatkan classifyException dan mengemas AnalysisException untuk SparkThrowable
  • [SPARK-42949] [SC-127255][sql] Sederhanakan kode untuk NAAJ
  • [SPARK-43011] [SC-127577][sql] array_insert seharusnya gagal pada indeks 0
  • [SPARK-42974] [SC-127487][core] Pulihkan Utils.createTempDir untuk menggunakan ShutdownHookManager dan membersihkan metode JavaUtils.createTempDir.
  • [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' juga berarti tabel sudah ada
  • [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME tidak dapat menentukan nama tabel baru dengan nama skema
  • [SPARK-37980] [SC-127668][sql] Access row_index melalui _metadata jika memungkinkan dalam pengujian
  • [SPARK-42655] [SC-127591][sql] Kesalahan referensi kolom ambigu yang salah
  • [SPARK-43009] [SC-127596][sql] Diparameterkan sql() dengan Any konstanta
  • [SPARK-43026] [SC-127590][sql] Terapkan AQE dengan cache tabel yang tidak melakukan pertukaran
  • [SPARK-42963] [SC-127576][sql] Extend SparkSessionExtensions untuk menyuntikkan aturan ke pengoptimal tahap kueri AQE
  • [SPARK-42918] [SC-127357] Menggeneralisasi penanganan atribut metadata di FileSourceStrategy
  • [SPARK-42806] [SC-127452][spark-42811][CONNECT] Tambahkan Catalog dukungan
  • [SPARK-42997] [SC-127535][sql] TableOutputResolver harus menggunakan jalur kolom yang benar dalam pesan kesalahan untuk array dan peta
  • [SPARK-43006] [SC-127486][pyspark] Perbaiki kesalahan ketik di StorageLevel eq()
  • [SPARK-43005] [SC-127485][pyspark] Perbaiki kesalahan ketik di pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457][core] Perbaiki kesalahan ketik di ResourceRequest.equals()
  • [SPARK-42907] [SC-126984][connect][PYTHON] Implementasi fungsi Avro
  • [SPARK-42979] [SC-127272][sql] Tentukan konstruktor harfiah sebagai kata kunci
  • [SPARK-42946] [SC-127252][sql] Menghapus data sensitif yang ditanam oleh substitusi variabel
  • [SPARK-42952] [SC-127260][sql] Sederhanakan parameter aturan penganalisis PreprocessTableCreation dan DataSourceAnalysis
  • [SPARK-42683] [LC-75] Ganti nama kolom metadata yang bertentangan secara otomatis
  • [SPARK-42853] [SC-126101][followup] Memperbaiki konflik
  • [SPARK-42929] [SC-126748][connect] membuat mapInPandas / mapInArrow agar mendukung "is_barrier"
  • [SPARK-42968] [SC-127271][ss] Tambahkan opsi untuk melewati koordinator penerapan sebagai bagian dari API StreamingWrite untuk sumber/sink DSv2
  • [SPARK-42954] [SC-127261][python][CONNECT] Tambahkan YearMonthIntervalType ke Klien Python PySpark dan Spark Connect
  • [SPARK-41359] [SC-127256][sql] Gunakan PhysicalDataType alih-alih DataType di UnsafeRow
  • [SPARK-42873] [SC-127262][sql] Tentukan jenis Spark SQL sebagai kata kunci
  • [SPARK-42808] [SC-126302][core] Hindari memeroleh availableProcessors setiap kali di MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][sql] PlanSubqueries harus diatur InSubqueryExec#shouldBroadcast ke true
  • [SPARK-42896] [SC-126729][sql][PYTHON] Mendukung eksekusi dalam mode hambatan untuk mapInPandas / mapInArrow
  • [SPARK-42874] [SC-126442][sql] Aktifkan kerangka kerja pengujian file emas baru untuk analisis untuk semua file input
  • [SPARK-42922] [SC-126850][sql] Pindah dari Random ke SecureRandom
  • [SPARK-42753] [SC-126369] ReusedExchange mengacu pada node yang tidak ada
  • [SPARK-40822] [SC-126274][sql] Alias kolom hasil derivasi konsisten
  • [SPARK-42908] [SC-126856][python] Memunculkan RuntimeError ketika SparkContext diperlukan tetapi tidak diinisialisasi
  • [SPARK-42779] [SC-126042][sql] Izinkan penulisan V2 menunjukkan ukuran partisi pemindahan berdasarkan saran
  • [SPARK-42914] [SC-126727][python] Gunakan transformUnregisteredFunction kembali untuk DistributedSequenceID.
  • [SPARK-42878] [SC-126882][connect] API tabel di DataFrameReader juga dapat menerima opsi
  • [SPARK-42927] [SC-126883][core] Ubah cakupan o.a.spark.util.Iterators#size akses menjadi private[util]
  • [SPARK-42943] [SC-126879][sql] Gunakan LONGTEXT alih-alih TEXT untuk StringType untuk panjang efektif
  • [SPARK-37677] [SC-126855][core] Unzip dapat menyimpan izin file
  • [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implement CoGrouped Map API
  • [SPARK-41876] [SC-126849][connect][PYTHON] Mengimplementasikan DataFrame.toLocalIterator
  • [SPARK-42930] [SC-126761][core][SQL] Ubah cakupan ProtobufSerDe akses implementasi terkait menjadi private[protobuf]
  • [SPARK-42819] [SC-125879][ss] Tambahkan dukungan untuk pengaturan max_write_buffer_number dan write_buffer_size untuk RocksDB yang digunakan dalam streaming
  • [SPARK-42924] [SC-126737][sql][CONNECT][python] Mengklarifikasi komentar args SQL berparameter
  • [SPARK-42748] [SC-126455][connect] Manajemen Artefak pihak server
  • [SPARK-42816] [SC-126365][connect] Mendukung ukuran Pesan Maks hingga 128MB
  • [SPARK-42850] [SC-126109][sql] Hapus aturan duplikat CombineFilters di Optimizer
  • [SPARK-42662] [SC-126355][connect][PS] Tambahkan pesan proto untuk API pandas pada indeks default Spark
  • [SPARK-42720] [SC-126136][ps][SQL] Menggunakan ekspresi untuk indeks default urutan terdistribusi alih-alih rencana
  • [SPARK-42790] [SC-126174][sql] Abstraksi metode yang dikecualikan untuk meningkatkan pengujian dalam pengujian JDBC docker.
  • [SPARK-42900] [SC-126473][connect][PYTHON] Perbaiki createDataFrame untuk menghormati nama inferensi dan kolom
  • [SPARK-42917] [SC-126657][sql] Memperbaiki getUpdateColumnNullabilityQuery untuk DerbyDialect
  • [SPARK-42684] [SC-125157][sql] katalog v2 tidak boleh mengizinkan nilai default kolom secara default
  • [SPARK-42861] [SC-126635][sql] Gunakan private[sql] alih-alih dilindungi[sql] untuk menghindari pembuatan dokumen API
  • [SPARK-42920] [SC-126728][connect][PYTHON] Aktifkan pengujian untuk UDF dengan UDT
  • [SPARK-42791] [SC-126617][sql] Buat kerangka kerja pengujian file emas baru untuk analisis
  • [SPARK-42911] [SC-126652][python] Memperkenalkan pengecualian yang lebih mendasar
  • [SPARK-42904] [SC-126634][sql] Dukungan Char/Varchar untuk Katalog JDBC
  • [SPARK-42901] [SC-126459][connect][PYTHON] Memindahkan StorageLevel ke file terpisah untuk menghindari potensi masalah file recursively imports
  • [SPARK-42894] [SC-126451][connect] Dukungan cache/persist/unpersist/storageLeveluntuk klien Spark connect jvm
  • [SPARK-42792] [SC-125852][ss] Tambahkan dukungan untuk WRITE_FLUSH_BYTES untuk RocksDB yang digunakan dalam operator stateful streaming
  • [SPARK-41233] [SC-126441][connect][PYTHON] Tambahkan array_prepend ke klien Python Spark Connect
  • [SPARK-42681] [SC-125149][sql] Melonggarkan batasan pengurutan untuk ALTER TABLE ADD|GANTI deskriptor kolom
  • [SPARK-42889] [SC-126367][connect][PYTHON] Implementasikan cache, persist, unpersist, dan storageLevel
  • [SPARK-42824] [SC-125985][connect][PYTHON] Berikan pesan kesalahan yang jelas untuk atribut JVM yang tidak didukung
  • [SPARK-42340] [SC-126131][connect][PYTHON] Memimplementasikan API Pemetaan Kelompok
  • [SPARK-42892] [SC-126454][sql] Memindahkan sameType dan metode terkait dari DataType
  • [SPARK-42827] [SC-126126][connect] Dukungan functions#array_prepend untuk klien Scala connect
  • [SPARK-42823] [SC-125987][sql] spark-sql shell mendukung namespace multipart untuk inisialisasi
  • [SPARK-42817] [SC-125960][core] Mencatat nama shuffle service sekali dalam ApplicationMaster
  • [SPARK-42786] [SC-126438][connect] Pilihan Tertgetik
  • [SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementasikan fungsi ml {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439][sql] Dukungan Codegen untuk HiveSimpleUDF
  • [SPARK-41233] [SC-126110][sql][PYTHON] Tambahkan array_prepend fungsi
  • [SPARK-42864] [SC-126268][ml][3.4] Buat IsotonicRegression.PointsAccumulator privat
  • [SPARK-42876] [SC-126281][sql] DataType's physicalDataType harus bersifat privat[sql]
  • [SPARK-42101] [SC-125437][sql] Membuat AQE mendukung InMemoryTableScanExec
  • [SPARK-41290] [SC-124030][sql] Mendukung ekspresi GENERATED ALWAYS AS untuk kolom dalam pernyataan buat/ganti tabel
  • [SPARK-42870] [SC-126220][connect] Memindahkan toCatalystValue ke connect-common
  • [SPARK-42247] [SC-126107][connect][PYTHON] Memperbaiki UserDefinedFunction agar memiliki returnType
  • [SPARK-42875] [SC-126258][connect][PYTHON] Perbaiki toPandas untuk menangani zona waktu dan jenis peta dengan benar
  • [SPARK-42757] [SC-125626][connect] Menerapkan textFile untuk DataFrameReader
  • [SPARK-42803] [SC-126081][core][SQL][ml] Gunakan fungsi getParameterCount alih-alih getParameterTypes.length
  • [SPARK-42833] [SC-126043][sql] Refactor applyExtensions di SparkSession
  • [SPARK-41765] Kembalikan "[SC-123550][sql] Tarik keluar metrik tulis v1...
  • [SPARK-42848] [SC-126105][connect][PYTHON] Mengimplementasikan DataFrame.registerTempTable
  • [SPARK-42020] [SC-126103][connect][PYTHON] Mendukung UserDefinedType dalam Spark Connect
  • [SPARK-42818] [SC-125861][connect][PYTHON] Implementasikan DataFrameReader/Writer .jdbc
  • [SPARK-42812] [SC-125867][connect] Tambahkan client_type ke pesan addArtifactsRequest protobuf
  • [SPARK-42772] [SC-125860][sql] Ubah nilai default opsi JDBC tentang pengaktifan fitur push down menjadi true
  • [SPARK-42771] [SC-125855][sql] Refaktorisasi HiveGenericUDF
  • [SPARK-25050] [SC-123839][sql] Avro: menulis serikat pekerja yang kompleks
  • [SPARK-42765] [SC-125850][connect][PYTHON] Aktifkan impor pandas_udf dari pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225][core] MapOutputTracker#getMapLocation harus menghormati spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173][sql] Meningkatkan performa penghapusan partisi
  • [SPARK-42689] [SC-125195][core][SHUFFLE] Izinkan ShuffleDriverComponent untuk menyatakan apakah data shuffle disimpan secara andal
  • [SPARK-42726] [SC-125279][connect][PYTHON] Mengimplementasikan DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550][sql] Pisahkan metrik penulisan v1 ke WriteFiles
  • [SPARK-41171] [SC-124191][sql] Menyimpulkan dan mendorong batas jendela melalui jendela jika partitionSpec kosong
  • [SPARK-42686] [SC-125292][core] Tangguhkan pemformatan untuk pesan debug di TaskMemoryManager
  • [SPARK-42756] [SC-125443][connect][PYTHON] Fungsi pembantu untuk mengonversi literal proto menjadi nilai dalam Klien Python
  • [SPARK-42793] [SC-125627][connect] connect modul memerlukan build_profile_flags
  • [SPARK-42701] [SC-125192][sql] Tambahkan try_aes_decrypt() fungsi
  • [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame tidak berfungsi dengan skema yang tidak dapat diubah ke null
  • [SPARK-42733] [SC-125542][connect][Followup] Write tanpa path dan table
  • [SPARK-42777] [SC-125525][sql] Dukungan mengonversi statistik katalog TimestampNTZ ke statistik rencana
  • [SPARK-42770] [SC-125558][connect] Tambahkan truncatedTo(ChronoUnit.MICROS) untuk membuat SQLImplicitsTestSuite dalam tes harian Java 17 tugas GA berhasil lulus
  • [SPARK-42752] [SC-125550][pyspark][SQL] Membuat pengecualian PySpark dapat dicetak selama inisialisasi
  • [SPARK-42732] [SC-125544][pyspark][CONNECT] Mendukung metode getActiveSession pada sesi spark connect.
  • [SPARK-42755] [SC-125442][connect] Konversi nilai harfiah faktor ke connect-common
  • [SPARK-42747] [SC-125399][ml] Perbaiki status internal LoR dan AFT yang salah
  • [SPARK-42740] [SC-125439][sql] Memperbaiki bug bahwa pushdown offset atau pagination tidak berfungsi untuk beberapa dialek bawaan.
  • [SPARK-42745] [SC-125332][sql] Peningkatan AliasAwareOutputExpression berfungsi dengan DSv2
  • [SPARK-42743] [SC-125330][sql] Dukungan menganalisis kolom TimestampNTZ
  • [SPARK-42721] [SC-125371][koneksi] penyadap pencatatan RPC
  • [SPARK-42691] [SC-125397][connect][PYTHON] Menerapkan Dataset.semanticHash
  • [SPARK-42688] [SC-124922][connect] ganti nama Connect proto Request client_id ke session_id
  • [SPARK-42310] [SC-122792][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339][core] Optimalkan rutinitas Utils.bytesToString
  • [SPARK-42725] [SC-125296][connect][PYTHON] Membuat LiteralExpression mendukung parameter array
  • [SPARK-42702] [SC-125293][spark-42623][SQL] Mendukung kueri terparameter dalam subkueri dan CTE
  • [SPARK-42697] [SC-125189][webui] Memperbaiki /api/v1/applications untuk mengembalikan total waktu aktif ketimbang 0 untuk bidang durasi.
  • [SPARK-42733] [SC-125278][connect][PYTHON] Memperbaiki fungsi DataFrameWriter.save agar dapat bekerja tanpa parameter jalur
  • [SPARK-42376] [SC-124928][ss] Pengantar penyebaran watermark antaroperator
  • [SPARK-42710] [SC-125205][connect][PYTHON] Ganti nama FrameMap proto menjadi MapPartitions
  • [SPARK-37099] [SC-123542][sql] Perkenalkan batas grup Jendela untuk filter berbasis peringkat untuk mengoptimalkan komputasi top-k
  • [SPARK-42630] [SC-125207][connect][PYTHON] Memperkenalkan UnparsedDataType dan menunda penguraian string DDL hingga SparkConnectClient tersedia
  • [SPARK-42690] [SC-125193][connect] Menerapkan fungsi penguraian CSV/JSON untuk klien Scala
  • [SPARK-42709] [SC-125172][python] Hapus asumsi __file__ tersedia
  • [SPARK-42318] [SC-122648][spark-42319][SQL] Tetapkan nama ke LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183][sql] Mendukung pengurai data jenis json "timestamp_ltz" sebagai TimestampType
  • [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def schema() tidak boleh menyimpan skema
  • [SPARK-42643] [SC-125152][connect][PYTHON] Mendaftarkan fungsi yang ditentukan pengguna Java (agregat)
  • [SPARK-42656] [SC-125177][connect][Followup] Perbaiki skrip spark-connect
  • [SPARK-41516] [SC-123899] [SQL] Perbolehkan dialek jdbc untuk mengambil alih kueri yang digunakan untuk membuat tabel
  • [SPARK-41725] [SC-124396][connect] Eksekusi Cepat dari DF.sql()
  • [SPARK-42687] [SC-124896][ss] Pesan kesalahan yang lebih baik untuk operasi yang tidak didukung pivot di Streaming
  • [SPARK-42676] [SC-124809][ss] Tulis titik pemeriksaan sementara untuk kueri streaming ke sistem file lokal bahkan jika FS default diatur secara berbeda
  • [SPARK-42303] [SC-122644][sql] Tetapkan nama ke _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][sql] Pastikan setidaknya satu unit waktu setelah "interval"
  • [SPARK-42649] [SC-124576][core] Hapus header Lisensi Apache standar dari bagian atas file sumber pihak ketiga
  • [SPARK-42611] [SC-124395][sql] Sisipkan pemeriksaan panjang karakter/varchar untuk kolom internal selama pemrosesan resolusi
  • [SPARK-42419] [SC-124019][connect][PYTHON] Migrasi ke kerangka kesalahan untuk Spark Connect Column API.
  • [SPARK-42637] [SC-124522][connect] Tambahkan SparkSession.stop()
  • [SPARK-42647] [SC-124647][python] Ubah alias untuk jenis numpy yang tidak digunakan lagi dan dihapus
  • [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver hanya akan menutup sessionState Hive yang sudah dimulai
  • [SPARK-42593] [SC-124405][ps] Depresiasi & hapus API yang akan dihilangkan di pandas 2.0.
  • [SPARK-41870] [SC-124402][connect][PYTHON] Perbaiki createDataFrame untuk menangani nama kolom duplikat
  • [SPARK-42569] [SC-124379][connect] Melempar pengecualian untuk API sesi yang tidak didukung
  • [SPARK-42631] [SC-124526][connect] Mendukung ekstensi kustom di klien Scala
  • [SPARK-41868] [SC-124387][connect][PYTHON] Perbaiki createDataFrame untuk mendukung durasi
  • [SPARK-42572] [SC-124171][sql][SS] Perbaiki perilaku untuk StateStoreProvider.validateStateRowFormat

Pembaruan pemeliharaan

Lihat pemeliharaan pembaruan Databricks Runtime 13.1.

Lingkungan sistem

  • Sistem Operasi: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Danau Delta: 2.4.0

Perpustakaan Python terinstal

Perpustakaan Versi Perpustakaan Versi Perpustakaan Versi
direktori aplikasi 1.4.4 argon2-cffi 21.3.0 Pengikatan Argon2-cffi 21.2.0
asttoken 2.2.1 atribut 21.4.0 panggilan balik 0.2.0
beautifulsoup4 4.11.1 hitam 22.6.0 pemutih 4.1.0
blinker 1.4 boto3 1.24.28 botocore 1.27.28
sertifikat 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 klik 8.0.4 Kriptografi 37.0.1
pengendara sepeda 0.11.0 Cython 0.29.32 dbus-python 1.2.18
debugpy 1.5.1 penghias 5.1.1 defusedxml 0.7.1
distlib 0.3.6 konversi docstring ke markdown 0.12 titik masuk 0,4
Mengeksekusi 1.2.0 gambaran umum aspek 1.0.3 fastjsonschema 2.16.3
filelock 3.12.0 alat pengelola font 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
IDNA 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jeepney, kendaraan umum khas Filipina 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
jupyter-client (klien Jupyter) 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 gantungan kunci 23.5.0 kiwisolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient (klien layanan web yang menggunakan RESTful) 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline (modul untuk menampilkan grafik secara inline) 0.1.6
Mccabe 0.7.0 penyetelan salah 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
buku catatan 6.4.12 numpy (perpustakaan Python untuk operasi numerik) 1.21.5 oauthlib 3.2.0
pengemasan 21.3 Panda 1.4.4 Pandocfilters 1.5.0
parso 0.8.3 pathspec 0.9.0 kambing hitam 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Bantal 9.2.0
pipa 22.2.2 platformdirs 2.5.2 plotly 5.9.0
pluggy 1.0.0 prometheus-client 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
pyzmq 23.2.0 requests 2.28.1 tali 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 scipy (perpustakaan Python untuk komputasi ilmiah) 1.9.1
Seaborn (perpustakaan Python untuk visualisasi data) 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
setuptools 63.4.1 Enam 1.16.0 alat penyaring sup 2.3.1
ssh-import-id 5.11 stack-data 0.6.2 statsmodels (paket Python untuk pemodelan statistik) 0.13.2
kegigihan 8.1.0 selesai 0.13.1 jalur uji 0.6.0
threadpoolctl 2.2.0 Tokenisasi-RT 4.2.1 tomli 2.0.1
Tornado 6.1 traitlets 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 pembaruan otomatis tanpa pengawasan 0.1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
pengkodean web 0.5.1 apa itu patch 1.0.2 wheel 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Perpustakaan R terpasang

Pustaka R telah diinstal dari cuplikan Microsoft CRAN pada 2023-02-10.

Perpustakaan Versi Perpustakaan Versi Perpustakaan Versi
anak panah 10.0.1 askpass 1.1 pastikanbahwa 0.2.1
pemindahan fitur ke versi lama (backports) 1.4.1 dasar 4.2.2 base64enc 0.1-3
sedikit 4.0.5 bit-64 4.0.5 blob 1.2.3
sepatu bot 1.3-28 menyeduh 1,0-8 Brio 1.1.3
sapu 1.0.3 bslib 0.4.2 cashmere 1.0.6
layanan panggilan 3.7.3 caret 6.0-93 cellranger 1.1.0
kronogram 2.3-59 class 7.3-21 CLI 3.6.0
pemangkas 0.8.0 jam dinding 0.6.1 kluster 2.1.4
codetools 0.2-19 ruang warna 2.1-0 commonmark 1.8.1
pengkompilasi 4.2.2 config 0.3.1 cpp11 0.4.3
kriyon 1.5.2 kredensial 1.3.2 melengkung 5.0.0
data.table (sebuah paket untuk pengolahan data table) 1.14.6 kumpulan data 4.2.2 DBI 1.1.3
dbplyr 2.3.0 deskripsi 1.4.2 devtools 2.4.5
diffobj 0.3.5 digest 0.6.31 pencahayaan turun 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
elipsis 0.3.2 menilai 0.20 penggemar 1.0.4
warna-warna 2.1.1 pemetaan cepat 1.1.0 fontawesome 0.5.0
untuk kucing 1.0.0 foreach (pengulangan untuk setiap elemen) 1.5.2 asing 0.8-82
bengkel pandai besi 0.2.0 fs 1.6.1 masa depan 1.31.0
menerapkan di masa depan 1.10.0 kumur 1.3.0 obat generik 0.1.3
Gert 1.9.2 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 variabel global 0.16.2
lem 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 Grafik 4.2.2 grDevices 4.2.2
kisi 4.2.2 gridExtra 2.3 gsubfn 0.7
gtabel 0.3.1 topi keras 1.2.0 tempat aman 2.5.1
lebih tinggi 0.10 HMS 1.1.2 htmltools 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Pengiterasi 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 knitr 1.42
Pelabelan 0.4.2 nanti 1.3.0 rangka 0.20-45
lahar 1.7.1 siklus hidup 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 Markdown 1.5
Massa 7.3-58.2 Matrix 1.5-1 memosankan 2.0.1
Metode 4.2.2 mgcv 1.8-41 pantomim 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv Agustus 2016 - Januari 2017 openssl 2.0.5 paralel 4.2.2
secara paralel 1.34.0 pilar 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 apresiasi 1.0.0
prettyunits 1.1.1 pROC 1.18.0 ProsesX 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Kemajuan 1.2.2
progresr 0.13.0 janji 1.2.0.1 proto 1.0.0
proksi 0,4-27 P.S. 1.7.2 menggeram lembut 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest (algoritma pembelajaran mesin) 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
alat baca 2.1.3 readxl (membaca file Excel) 1.4.2 recipes 1.0.4
pertandingan ulang 1.0.1 pertandingan ulang 2 2.1.2 pengontrol jarak jauh 2.4.2
contoh replikasi 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 timbangan / sisik 1.2.1
selektor 0,4-2 informasi sesi 1.2.2 bentuk 1.4.6
mengkilap 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 spasial 7.3-15 garis lengkung 4.2.2
sqldf 0,4-11 SQUAREM 2021.1 statistik 4.2.2
statistik4 4.2.2 string 1.7.12 stringr 1.5.0
bertahan hidup 3.5-3 Sistem 3.4.1 systemfonts 1.0.4
bahasa pemrograman Tcl/Tk 4.2.2 ujiitu 3.1.6 pemformatan teks 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 perubahan jam 0.2.0 TanggalWaktu 4022.108
tinytex 0,44 perangkat 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 gunakan ini 2.1.6 utf8 1.2.3
Utilitas 4.2.2 UUID (Pengidentifikasi Unik Universal) 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
kumis 0.4.1 dengan 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 zip 2.2.2

Pustaka Java dan Scala terinstal (versi kluster Scala 2.12)

ID Kelompok Identifikasi Artefak Versi
antlr antlr 2.7.7
com.amazonaws Klien Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws AWS Java SDK untuk CloudHSM 1.12.390
com.amazonaws aws-java-sdk-cloudsearch (AWS Java SDK untuk CloudSearch) 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config (konfigurasi SDK Java untuk AWS) 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache (SDK Java AWS untuk ElastiCache) 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK untuk penyeimbangan beban elastis di AWS dengan Java) 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier (perangkat lunak pengembangan untuk Glacier dari Amazon Web Services) 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-impor-ekspor 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws AWS-Java-SDK-Pembelajaran Mesin 1.12.390
com.amazonaws aws-java-sdk-opsworks (SDK Java untuk OpsWorks) 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm (kit pengembangan perangkat lunak Java untuk AWS-SSM) 1.12.390
com.amazonaws SDK Java untuk Storage Gateway AWS 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws AWS Java SDK Dukungan 1.12.390
com.amazonaws aws-java-sdk-swf-libraries (perpustakaan untuk pengembangan perangkat lunak menggunakan Java dan AWS SWF) 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics aliran 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware bayangan-kriogenik 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml teman sekelas 1.3.4
com.fasterxml.jackson.core Jackson Annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype Jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.caffeine kafein 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib referensi_asli-java 1.1
com.github.fommil.netlib referensi_asli-java 1.1-penduduk asli
com.github.fommil.netlib sistem_asli-java 1.1
com.github.fommil.netlib sistem_asli-java 1.1-penduduk asli
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-penduduk asli
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-penduduk asli
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.8.9
com.google.crypto.tink tink 1.7.0
com.google.errorprone Annotasi yang rentan terhadap kesalahan 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava jambu 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger pembuat profil 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi kode_sumber_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf (algoritma kompresi) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
koleksi umum koleksi umum 3.2.2
commons-dbcp commons-dbcp 1.4
unggah berkas pada commons unggah berkas pada commons 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging (perpustakaan Java untuk fungsi pencatatan) commons-logging (perpustakaan Java untuk fungsi pencatatan) 1.1.3
kolam umum kolam umum 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Tidak peduli 3.0.3
dev.ludovic.netlib LAPACK 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor udara 0,21%
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics inti metrik 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics pengukuran-pemeriksaan kesehatan 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrik-jmx 4.2.10
io.dropwizard.metrics metrik-json 4.2.10
io.dropwizard.metrics metrik-jvm 4.2.10
io.dropwizard.metrics metrik-servlet 4.2.10
io.netty netty-all 4.1.87.Final
io.netty Netty Buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver (pustaka untuk pemecahan masalah terkait jaringan dalam Netty) 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll (kelas transportasi netty - epoll) 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common (paket transport Netty untuk sistem Unix umum) 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_umum 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway (gateway pendorong sederhana) 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx pengumpul 0.12.0
jakarta.anotasi jakarta.anotasi-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivasi 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
Javolution Javolution 5.5.1
Jline Jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine mentimun acar 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
jaring.bunga salju snowflake-ingest-sdk 0.9.6
jaring.bunga salju snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_gabungan_semua 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr StringTemplate 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow format tanda panah 11.0.0
org.apache.arrow inti-memori-panah 11.0.0
org.apache.arrow Arrow-Memory-Netty 11.0.0
org.apache.arrow arrow-vector 11.0.0
org.apache.avro Avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-koleksi4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text (teks umum) 1.10.0
org.apache.curator kurator dan klien 2.13.0
org.apache.curator kerangka kerja kurator 2.13.0
org.apache.curator kurasi resep 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby pertandingan derbi 10.14.2.0
org.apache.hadoop lingkungan kerja klien Hadoop 3.3.4
org.apache.hive hive-beeline (antarmuka perintah untuk Apache Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde (komponen pada Apache Hive untuk serialisasi dan deserialisasi) 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API penyimpanan hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common (As a specialized technical term, it might be appropriate to maintain it in its original form unless further context suggests an equivalent Indonesian term is necessary.) 2.3.9
org.apache.hive.shims Pengatur Jadwal Hive Shims 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy tanaman anggur 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc orc-shims 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.22
org.apache.yetus anotasi penonton 0.13.0
org.apache.zookeeper penjaga kebun binatang 3.6.3
org.apache.zookeeper penjaga kebun binatang-jute 3.6.3
org.checkerframework pemeriksa kualitas 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino Pengompilasi Umum 3.0.16
org.codehaus.janino Januari 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty lanjutan dermaga 9.4.50.v20221201
org.eclipse.jetty jetty-http (protokol HTTP untuk server Jetty) 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty Jetty Plus 9.4.50.v20221201
org.eclipse.jetty Jetty-Proxy 9.4.50.v20221201
org.eclipse.jetty keamanan jetty 9.4.50.v20221201
org.eclipse.jetty Jetty Server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty Aplikasi web Jetty 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket WebSocket-API 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-klien 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-server 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-pemindai lokasi 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-penanda-sumber-daya 1.0.3
org.glassfish.hk2.external aopalliance (dikemas ulang) 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-inti 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey biasa 2.36
org.glassfish.jersey.core Jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator Hibernate Validator 6.1.7.Terakhir
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotasi 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client (klien Java untuk MariaDB) 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap pengganjal 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt antarmuka pengujian 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest kompatibel dengan ScalaTest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1