Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Berlaku untuk: SQL Server 2019 (15.x)
Important
Kluster Big Data Microsoft SQL Server 2019 dihentikan. Dukungan untuk Kluster Big Data SQL Server 2019 berakhir per 28 Februari 2025. Untuk informasi selengkapnya, lihat posting blog pengumuman dan Opsi big data di platform Microsoft SQL Server.
Sparklyr menyediakan antarmuka R untuk Apache Spark. Sparklyr adalah cara populer bagi pengembang R untuk menggunakan Spark. Artikel ini menjelaskan cara menggunakan sparklyr di Kluster Big Data SQL Server 2019 menggunakan RStudio.
Prerequisites
Menginstal R dan RStudio Desktop
Instal dan konfigurasikan RStudio Desktop dengan langkah-langkah berikut:
Jika Anda menjalankan klien Windows, unduh dan instal R 3.6.3. Selain itu, unduh dan instal RTools 3.5. Pastikan untuk mengonfigurasi folder biner RTools pada variabel lingkungan PATH Anda.
Warning
R versi 4.x dan versi sparklyr lainnya yang ditentukan di bawah ini diverifikasi untuk tidak berfungsi pada SQL Server Big Data Clusters CU13.
Unduh dan instal RStudio Desktop. Secara opsional, semua sampel berfungsi pada shell R.
Setelah penginstalan selesai, jalankan perintah berikut di dalam shell RStudio Desktop atau R untuk menginstal paket yang diperlukan. Ketika diminta, konfirmasikan untuk mengkompilasi paket dari sumber.
install.packages("devtools")
devtools::install_github('rstudio/sparklyr', ref = 'v1.7.0', upgrade = 'always', repos = 'https://cran.microsoft.com/snapshot/2021-06-11/')
Terhubung dengan Spark dalam kluster data besar
Anda dapat menggunakan sparklyr untuk terhubung dari klien ke kluster big data menggunakan Livy dan gateway HDFS/Spark.
Di RStudio, buat skrip R dan sambungkan ke Spark seperti dalam contoh berikut:
Tip
Untuk nilai <AZDATA_USERNAME> dan <AZDATA_PASSWORD>, gunakan nama pengguna dan kata sandi yang Anda tetapkan selama penyebaran kluster data besar.
Dimulai dengan SQL Server 2019 (15.x) CU 5, saat Anda menyebarkan kluster baru dengan autentikasi dasar, semua titik akhir termasuk gateway menggunakan AZDATA_USERNAME dan AZDATA_PASSWORD. Titik akhir pada kluster yang ditingkatkan ke CU 5 terus menggunakan root sebagai nama pengguna untuk terhubung ke titik akhir gateway. Perubahan ini tidak berlaku untuk penyebaran menggunakan autentikasi Direktori Aktif. Lihat Kredensial untuk mengakses layanan melalui titik akhir gateway dalam catatan rilis.
Untuk nilai <IP> dan <PORT>, lihat dokumentasi tentang menyambungkan ke kluster big data.
library(sparklyr)
library(dplyr)
library(DBI)
#Specify the Knox username and password
config <- livy_config(user = "<AZDATA_USERNAME>", password = "<AZDATA_PASSWORD>")
httr::set_config(httr::config(ssl_verifypeer = 0L, ssl_verifyhost = 0L))
sc <- spark_connect(master = "https://<IP>:<PORT>/gateway/default/livy/v1",
method = "livy",
config = config)
Menjalankan kueri sparklyr
Setelah menyambungkan ke Spark, Anda dapat menjalankan sparklyr. Contoh berikut melakukan kueri pada himpunan iris data menggunakan sparklyr:
iris_tbl <- copy_to(sc, iris)
iris_count <- dbGetQuery(sc, "SELECT COUNT(*) FROM iris")
iris_count
Komputasi R terdistribusi
Salah satu fitur sparklyr adalah kemampuan untuk mendistribusikan komputasi R dengan spark_apply.
Karena kluster big data menggunakan koneksi Livy, Anda harus mengatur packages = FALSE dalam panggilan ke spark_apply. Untuk informasi selengkapnya, lihat bagian Livy dari dokumentasi sparklyr tentang komputasi R terdistribusi. Dengan pengaturan ini, Anda hanya dapat menggunakan paket R yang sudah diinstal pada kluster Spark Anda dalam kode R yang diteruskan ke spark_apply. Contoh berikut menunjukkan fungsionalitas ini:
iris_tbl %>% spark_apply(function(e) nrow(e), names = "nrow", group_by = "Species", packages = FALSE)
Next steps
Untuk informasi selengkapnya tentang kluster big data, lihat Apa itu Kluster Big Data SQL Server 2019.