Bagikan melalui


Menggunakan Azure Toolkit untuk IntelliJ untuk membuat aplikasi Apache Spark untuk kluster HDInsight

Artikel ini menunjukkan cara mengembangkan aplikasi Apache Spark di Azure HDInsight menggunakan plug-in Azure Toolkit untuk IntelliJ IDE. Azure HDInsight adalah layanan analitik sumber terbuka terkelola di cloud. Layanan ini memungkinkan Anda menggunakan kerangka kerja sumber terbuka seperti Hadoop, Apache Spark, Apache Hive, dan Apache Kafka.

Anda dapat menggunakan plug-in Azure Toolkit dengan beberapa cara:

  • Mengembangkan dan mengirimkan aplikasi Scala Spark ke kluster HDInsight Spark.
  • Akses sumber daya kluster Azure HDInsight Spark Anda.
  • Mengembangkan dan menjalankan aplikasi Scala Spark secara lokal.

Dalam artikel ini, Anda akan mempelajari cara:

  • Penggunaan Toolkit Azure untuk plugin IntelliJ
  • Kembangkan aplikasi Apache Spark
  • Mengirimkan aplikasi ke kluster Azure HDInsight

Prasyarat

Menginstal plugin Scala untuk IntelliJ IDEA

Langkah-langkah untuk menginstal plugin Scala:

  1. Buka IntelliJ IDEA.

  2. Pada layar selamat datang, navigasikan ke Konfigurasi>Plugin untuk membuka jendela Plugin .

    IntelliJ IDEA mengaktifkan plugin Scala.

  3. Pilih Instal untuk plugin Scala yang ditampilkan di jendela baru.

    IntelliJ IDEA menginstal plugin scala.

  4. Setelah plugin berhasil diinstal, Anda harus menghidupkan ulang IDE.

Membuat aplikasi Spark Scala untuk kluster HDInsight Spark

  1. Buka IntelliJ IDEA, dan pilih Buat Proyek Baru untuk membuka jendela Proyek Baru.

  2. Pilih Apache Spark/Microsoft Azure HDInsight dari panel sisi kiri.

  3. Pilih Proyek Spark (Scala) dari jendela utama.

  4. Dari menu tarik-turun Alat build, pilih salah satu opsi berikut:

    • Maven untuk dukungan wizard pembuatan proyek Scala.

    • SBT untuk mengelola dependensi dan pembangunan proyek Scala.

      Kotak dialog Proyek Baru IntelliJ IDEA.

  5. Pilih Selanjutnya.

  6. Di jendela Proyek Baru, berikan informasi berikut ini:

    Harta benda Deskripsi
    Nama proyek Masukkan nama. Artikel ini menggunakan myApp.
    Lokasi proyek Masukkan lokasi untuk menyimpan proyek Anda.
    SDK Proyek Bidang ini mungkin kosong pada penggunaan IDEA pertama Anda. Pilih Baru... dan navigasi ke JDK Anda.
    Versi Spark Wizard pembuatan mengintegrasikan versi yang tepat untuk SDK Spark dan SDK Scala. Jika versi kluster Spark lebih lama dari 2.0, pilih Spark 1.x. Jika tidak, pilih Spark2.x. Contoh ini menggunakan Spark 2.3.0 (Scala 2.11.8).

    Memilih Apache Spark SDK.

  7. Pilih Selesai. Mungkin perlu waktu beberapa menit sebelum proyek tersedia.

  8. Proyek Spark secara otomatis membuat artefak untuk Anda. Untuk melihat artefak, lakukan langkah-langkah berikut:

    a. Dari bilah menu, navigasikan ke File>Struktur Proyek....

    b. Dari jendela Struktur Proyek, pilih Artefak.

    c. Pilih Batal setelah melihat artefak.

    Info artefak dalam kotak dialog.

  9. Tambahkan kode sumber aplikasi Anda dengan melakukan langkah-langkah berikut:

    a. Dari Project, navigasikan ke myApp>src>main>scala.

    b. Klik kanan scala, lalu navigasikan ke Baru>Kelas Scala.

    Perintah untuk membuat kelas Scala dari Project.

    c. Dalam kotak dialog Buat Kelas Scala Baru , berikan nama, pilih Objek di daftar drop-down Jenis , lalu pilih OK.

    Kotak dialog Buat Kelas Scala Baru.

    d. File myApp.scala kemudian terbuka di tampilan utama. Ganti kode default dengan kode yang ditemukan di bawah ini:

    import org.apache.spark.SparkConf
    import org.apache.spark.SparkContext
    
    object myApp{
        def main (arg: Array[String]): Unit = {
        val conf = new SparkConf().setAppName("myApp")
        val sc = new SparkContext(conf)
    
        val rdd = sc.textFile("wasbs:///HdiSamples/HdiSamples/SensorSampleData/hvac/HVAC.csv")
    
        //find the rows that have only one digit in the seventh column in the CSV file
        val rdd1 =  rdd.filter(s => s.split(",")(6).length() == 1)
    
        rdd1.saveAsTextFile("wasbs:///HVACOut")
        }
    
    }
    

    Kode membaca data dari HVAC.csv (tersedia di semua kluster HDInsight Spark), mengambil baris yang hanya memiliki satu digit di kolom ketujuh dalam file CSV, dan menulis output ke /HVACOut di bawah kontainer penyimpanan default untuk kluster.

Menyambungkan ke kluster HDInsight Anda

Pengguna dapat masuk ke langganan Azure Anda, atau menautkan kluster HDInsight. Gunakan nama pengguna/kata sandi Ambari atau kredensial yang terhubung dengan domain untuk menyambungkan ke kluster HDInsight Anda.

Masuk ke langganan Azure Anda

  1. Dari bilah menu, navigasi ke Tampilkan>Alat WindowsAzure >Explorer.

    IntelliJ IDEA menunjukkan Azure Explorer.

  2. Dari Explorer Azure, klik kanan simpul Azure, lalu pilih Masuk.

    Penjelajah IntelliJ IDEA klik kanan pada elemen Azure.

  3. Dalam kotak dialog Masuk Azure, pilih Masuk Perangkat, lalu pilih Masuk.

    'Login perangkat masuk IntelliJ IDEA azure'.

  4. Dalam kotak dialog Masuk Perangkat Azure , klik Salin&Buka.

    'IntelliJ IDEA azure device login'.

  5. Di antarmuka browser, tempelkan kode, lalu klik Berikutnya.

    'Microsoft masukkan dialog kode untuk HDI'.

  6. Masukkan kredensial Azure Anda, lalu tutup browser.

    'Microsoft masukkan dialog email untuk HDI'.

  7. Setelah Anda masuk, kotak dialog Pilih Langganan mencantumkan semua langganan Azure yang terkait dengan kredensial. Pilih langganan Anda lalu pilih tombol Pilih .

    Kotak dialog Pilih Langganan.

  8. Dari Azure Explorer, perluas HDInsight untuk melihat kluster HDInsight Spark yang ada di langganan Anda.

    Tampilan utama IntelliJ IDEA Azure Explorer.

  9. Untuk melihat sumber daya (misalnya, akun penyimpanan) yang terkait dengan kluster, Anda dapat memperluas node nama kluster lebih lanjut.

    Akun penyimpanan Azure Explorer.

Anda dapat menautkan kluster HDInsight dengan menggunakan nama pengguna terkelola Apache Ambari. Demikian pula, untuk kluster HDInsight yang bergabung dengan domain, Anda dapat menautkan dengan menggunakan domain dan nama pengguna, seperti user1@contoso.com. Anda juga dapat menautkan kluster Livy Service.

  1. Dari bilah menu, navigasi ke Tampilkan>Alat WindowsAzure >Explorer.

  2. Dari Azure Explorer, klik kanan simpul HDInsight , lalu pilih Tautkan Kluster A.

    Menu konteks Azure Explorer kluster tautan.

  3. Opsi yang tersedia di jendela Tautkan Kluster dapat bervariasi tergantung pada nilai yang Anda pilih dari daftar drop-down Jenis Sumber Daya Tautan. Masukkan nilai Anda lalu pilih OK.

    • Kluster HDInsight

      Harta benda Nilai
      Jenis Sumber Daya Tautan Pilih Kluster HDInsight dari daftar drop-down.
      Kluster Nama/URL Masukkan nama kluster.
      Jenis Autentikasi Biarkan sebagai Autentikasi Dasar
      Nama Pengguna Masukkan nama pengguna kluster, defaultnya adalah admin.
      Kata sandi Masukkan kata sandi untuk nama pengguna.

      IntelliJ IDEA menghubungkan dialog kluster.

    • Layanan Livy

      Harta benda Nilai
      Jenis Sumber Daya Tautan Pilih Livy Service dari daftar drop-down.
      Titik Akhir Livy Masukkan Titik Akhir Livy
      Nama Kluster Masukkan nama kluster.
      Titik Akhir Yarn Fakultatif.
      Jenis Autentikasi Biarkan sebagai Autentikasi Dasar
      Nama Pengguna Masukkan nama pengguna kluster, defaultnya adalah admin.
      Kata sandi Masukkan kata sandi untuk nama pengguna.

      Dialog kluster IntelliJ IDEA link Livy.

  4. Anda dapat melihat kluster yang ditautkan dari simpul HDInsight .

    Kluster Azure Explorer tertaut1.

  5. Anda juga dapat membatalkan kaitan kluster dari Azure Explorer.

    Azure Explorer kluster yang tidak ditautkan.

Menjalankan aplikasi Spark Scala pada kluster HDInsight Spark

Setelah membuat aplikasi Scala, Anda dapat mengirimkannya ke kluster.

  1. Dari Proyek, navigasikan ke myApp>src>main>scala>myApp. Klik kanan myApp, dan pilih Kirim Aplikasi Spark (Kemungkinan akan terletak di bagian bawah daftar).

    Perintah Kirim Aplikasi Spark ke HDInsight.

  2. Di jendela dialog Kirim Aplikasi Spark , pilih 1. Spark di HDInsight.

  3. Di jendela Edit konfigurasi , berikan nilai berikut lalu pilih OK:

    Harta benda Nilai
    Kluster Spark (khusus Linux) Pilih kluster HDInsight Spark tempat Anda ingin menjalankan aplikasi Anda.
    Pilih Artefak untuk dikirim Biarkan pengaturan bawaan.
    Nama kelas utama Nilai default adalah kelas utama dari file yang dipilih. Anda dapat mengubah kelas dengan memilih elipsis(...) dan memilih kelas lain.
    Konfigurasi pekerjaan Anda dapat mengubah kunci default dan, atau nilai. Untuk mengetahui informasi selengkapnya, lihat REST API Apache Livy.
    Argumen baris perintah Anda dapat memasukkan argumen yang dipisahkan oleh spasi untuk kelas utama jika diperlukan.
    Jars yang Direferensikan dan File yang Direferensikan Anda dapat memasukkan jalur-jalur untuk Jar dan file yang direferensikan jika ada. Anda juga dapat menelusuri file di sistem file virtual Azure, yang saat ini hanya mendukung kluster ADLS Gen 2. Untuk informasi selengkapnya: Konfigurasi Apache Spark. Lihat juga, Cara mengunggah sumber daya ke kluster.
    Penyimpanan Pengunggahan Pekerjaan Luaskan untuk menampilkan opsi tambahan.
    Jenis Penyimpanan Pilih Gunakan Azure Blob untuk mengunggah dari daftar drop-down.
    Akun Penyimpanan Masukkan akun penyimpanan Anda.
    Kunci Penyimpanan Masukkan kunci penyimpanan Anda.
    Wadah Penyimpanan Pilih kontainer penyimpanan Anda dari daftar menurun setelah Akun Penyimpanan dan Kunci Penyimpanan dimasukkan.

    Kotak dialog Pengiriman Spark.

  4. Pilih SparkJobRun untuk mengirimkan proyek Anda ke kluster yang dipilih. Tab Pekerjaan Spark Jarak Jauh di Kluster menampilkan progres pelaksanaan pekerjaan di bagian bawah. Anda dapat menghentikan aplikasi dengan mengklik tombol merah.

    Jendela Pengiriman Apache Spark.

Men-debug aplikasi Apache Spark secara lokal atau jarak jauh pada kluster HDInsight

Kami juga merekomendasikan cara lain untuk mengirimkan aplikasi Spark ke kluster. Anda dapat melakukannya dengan mengatur parameter di IDE konfigurasi Run/Debug . Lihat Debug aplikasi Apache Spark secara lokal atau jarak jauh pada kluster HDInsight dengan Azure Toolkit untuk IntelliJ melalui SSH.

Mengakses dan mengelola kluster HDInsight Spark dengan menggunakan Azure Toolkit untuk IntelliJ

Anda dapat melakukan berbagai operasi dengan menggunakan Azure Toolkit untuk IntelliJ. Sebagian besar operasi dimulai dari Azure Explorer. Dari bilah menu, navigasi ke Tampilkan>Alat WindowsAzure >Explorer.

Mengakses tampilan pekerjaan

  1. Dari Azure Explorer, navigasikan ke HDInsight><Kluster>Anda>Pekerjaan.

    Simpul tampilan Pekerjaan Azure Explorer IntelliJ.

  2. Di panel kanan, tab Tampilan Pekerjaan Spark menampilkan semua aplikasi yang dijalankan pada kluster. Pilih nama aplikasi yang ingin Anda lihat detail selengkapnya.

    Detail Aplikasi Tampilan Pekerjaan Spark.

  3. Untuk menampilkan informasi pekerjaan dasar yang sedang berjalan, arahkan mouse ke atas grafik pekerjaan. Untuk melihat grafik tahapan dan informasi yang dihasilkan setiap pekerjaan, pilih simpul pada grafik pekerjaan.

    Detail Tampilan Tahap Pekerjaan Spark.

  4. Untuk melihat log yang sering digunakan, seperti Driver Stderr, Driver Stdout, dan Info Direktori, pilih tab Log .

    Detail Log Tampilan Pekerjaan Spark.

  5. Anda dapat melihat antarmuka pengguna riwayat Spark dan UI YARN (di tingkat aplikasi). Pilih tautan di bagian atas jendela.

Mengakses server riwayat Spark

  1. Dari Azure Explorer, perluas HDInsight, klik kanan nama kluster Spark Anda, lalu pilih Buka UI Riwayat Spark.

  2. Saat diminta, masukkan kredensial admin kluster, yang Anda tentukan saat menyiapkan kluster.

  3. Di dasbor server riwayat Spark, Anda dapat menggunakan nama aplikasi untuk mencari aplikasi yang baru saja Anda selesai jalankan. Dalam kode sebelumnya, Anda mengatur nama aplikasi dengan menggunakan val conf = new SparkConf().setAppName("myApp"). Nama aplikasi Spark Anda adalah myApp.

Memulai portal Ambari

  1. Dari Azure Explorer, perluas HDInsight, klik kanan nama kluster Spark Anda, lalu pilih Buka Portal Manajemen Kluster (Ambari).

  2. Saat diminta, masukkan kredensial admin untuk kluster. Anda menentukan kredensial ini selama proses penyiapan kluster.

Mengelola langganan Azure

Secara default, Azure Toolkit untuk IntelliJ mencantumkan kluster Spark dari semua langganan Azure Anda. Jika perlu, Anda dapat menentukan langganan yang ingin Anda akses.

  1. Dari Azure Explorer, klik kanan simpul akar Azure , lalu pilih Pilih Langganan.

  2. Dari jendela Pilih Langganan , kosongkan kotak centang di samping langganan yang tidak ingin Anda akses, lalu pilih Tutup.

Konsol Spark

Anda dapat menjalankan Spark Local Console(Scala) atau menjalankan Spark Livy Interactive Session Console(Scala).

Konsol Lokal Spark (Scala)

Pastikan Anda telah memenuhi prasyarat WINUTILS.EXE.

  1. Dari bilah menu, navigasikan ke Jalankan>Edit Konfigurasi....

  2. Dari jendela Konfigurasi Jalankan/Debug , di panel kiri, navigasikan ke Apache Spark di HDInsight>[Spark on HDInsight] myApp.

  3. Dari jendela utama, pilih tab Locally Run .

  4. Berikan nilai berikut, lalu pilih OK:

    Harta benda Nilai
    Kelas utama pekerjaan Nilai default adalah kelas utama dari file yang dipilih. Anda dapat mengubah kelas dengan memilih elipsis(...) dan memilih kelas lain.
    Variabel lingkungan Pastikan nilai untuk HADOOP_HOME sudah benar.
    Lokasi WINUTILS.exe Pastikan jalurnya benar.

    Konfigurasi Konsol Set Lokal.

  5. Dari Proyek, navigasikan ke myApp>src>main>scala>myApp.

  6. Dari bilah menu, buka Alat>Konsol Spark>Jalankan Konsol Lokal Spark (Scala).

  7. Kemudian dua dialog dapat ditampilkan untuk menanyakan apakah Anda ingin memperbaiki dependensi secara otomatis. Jika demikian, pilih Perbaiki Otomatis.

    Dialog IntelliJ IDEA Spark Auto Fix1.

    IntelliJ IDEA Spark Auto Fix dialog2.

  8. Konsol harus terlihat mirip dengan gambar di bawah ini. Di jendela konsol, ketik sc.appName, lalu tekan Ctrl+Enter. Hasilnya akan ditampilkan. Anda dapat mengakhiri konsol lokal dengan mengklik tombol merah.

    Hasil konsol lokal IntelliJ IDEA.

Konsol Sesi Interaktif Spark Livy (Scala)

  1. Dari bilah menu, navigasikan ke Jalankan>Edit Konfigurasi....

  2. Dari jendela Konfigurasi Jalankan/Debug , di panel kiri, navigasikan ke Apache Spark di HDInsight>[Spark on HDInsight] myApp.

  3. Dari jendela utama, pilih tab Remotely Run in Cluster .

  4. Berikan nilai berikut, lalu pilih OK:

    Harta benda Nilai
    Kluster Spark (khusus Linux) Pilih kluster HDInsight Spark tempat Anda ingin menjalankan aplikasi Anda.
    Nama kelas utama Nilai default adalah kelas utama dari file yang dipilih. Anda dapat mengubah kelas dengan memilih elipsis(...) dan memilih kelas lain.

    Konfigurasi Set Konsol Interaktif.

  5. Dari Proyek, navigasikan ke myApp>src>main>scala>myApp.

  6. Dari bilah menu, navigasikan ke Alat>Spark Console>Jalankan Spark Livy Interactive Session Console (Scala).

  7. Konsol harus terlihat mirip dengan gambar di bawah ini. Di jendela konsol, ketik sc.appName, lalu tekan Ctrl+Enter. Hasilnya akan ditampilkan. Anda dapat mengakhiri konsol lokal dengan mengklik tombol merah.

    Hasil Console Interaktif IntelliJ IDEA.

Kirim Pilihan ke Konsol Spark

Lebih mudah bagi Anda untuk memperkirakan hasil skrip dengan mengirim beberapa kode ke konsol lokal atau Livy Interactive Session Console (Scala). Anda dapat menyoroti beberapa kode dalam file Scala, lalu klik kanan Kirim Pilihan Ke Konsol Spark. Kode yang dipilih akan dikirim ke konsol. Hasilnya akan ditampilkan setelah kode di konsol. Konsol akan memeriksa kesalahan jika ada.

Kirim Pilihan ke Konsol Spark.

Integrasikan dengan Perantara Identitas Microsoft Azure HDInsight (HIB)

Sambungkan ke kluster HDInsight ESP Anda dengan Perantara ID (HIB)

Anda dapat mengikuti langkah-langkah umum untuk masuk ke langganan Azure Anda untuk menyambungkan ke kluster HDInsight ESP Anda dengan Perantara ID (HIB). Setelah masuk, Anda akan melihat daftar kluster di Azure Explorer. Untuk petunjuk selengkapnya, lihat Sambungkan ke kluster Microsoft Azure HDInsight Anda.

Menjalankan aplikasi Spark Scala pada kluster HDInsight ESP dengan ID Broker (HIB)

Anda dapat mengikuti langkah-langkah normal untuk mengirimkan pekerjaan ke kluster HDInsight ESP dengan ID Broker (HIB). Lihat Menjalankan aplikasi Spark Scala pada kluster HDInsight Spark untuk instruksi selengkapnya.

Kami mengunggah file yang diperlukan ke folder bernama dengan akun masuk Anda, dan Anda dapat melihat jalur unggahan dalam file konfigurasi.

unggah jalur dalam konfigurasi.

Konsol Spark pada kluster HDInsight ESP dengan ID Broker (HIB)

Anda dapat menjalankan Spark Local Console (Scala) atau menjalankan Spark Livy Interactive Session Console (Scala) pada kluster HDInsight ESP dengan ID Broker (HIB). Lihat Konsol Spark untuk petunjuk selengkapnya.

Nota

Untuk kluster HDInsight ESP dengan Id Broker (HIB), tautan kluster dan debug aplikasi Apache Spark dari jarak jauh tidak didukung saat ini.

Peran khusus pembaca

Saat pengguna mengirimkan pekerjaan ke kluster dengan izin peran khusus pembaca, kredensial Ambari diperlukan.

  1. Masuk dengan akun peran khusus pembaca.

  2. Dari Azure Explorer, perluas HDInsight untuk melihat kluster HDInsight yang ada di langganan Anda. Kluster yang ditandai "Role:Reader" hanya memiliki izin peran khusus pembaca.

    'IntelliJ Azure Explorer Role:Reader'.

  3. Klik kanan kluster dengan izin peran khusus pembaca. Pilih Tautkan kluster ini dari menu konteks untuk menautkan kluster. Masukkan nama pengguna dan Kata Sandi Ambari.

    IntelliJ Azure Explorer menautkan kluster ini.

  4. Jika kluster berhasil ditautkan, HDInsight akan di-refresh. Tahap kluster akan dihubungkan.

    Dialog tertaut untuk IntelliJ Azure Explorer.

  1. Klik Simpul Pekerjaan , jendela Akses Pekerjaan Kluster Ditolak muncul.

  2. Klik Tautkan kluster ini untuk menautkan kluster.

    dialog akses pekerjaan kluster ditolak.

  1. Buat Konfigurasi HDInsight. Kemudian pilih Jalankan Secara Jarak Jauh di dalam Kluster.

  2. Pilih kluster, yang memiliki izin peran khusus pembaca untuk kluster Spark (khusus Linux). Pesan peringatan muncul. Anda dapat Mengklik Tautkan kluster ini untuk menautkan kluster.

    IntelliJ IDEA menjalankan/men-debug konfigurasi buat.

Lihat Akun Penyimpanan

  • Untuk kluster dengan izin peran khusus pembaca, klik simpul Akun Penyimpanan , jendela Akses Penyimpanan Ditolak muncul. Anda dapat mengklik Buka Azure Storage Explorer untuk membuka Storage Explorer.

    'Akses Penyimpanan IDE IntelliJ Ditolak'.

    Tombol Akses Penyimpanan IDEA IntelliJ Ditolak.

  • Untuk kluster tertaut, klik simpul Akun Penyimpanan , jendela Akses Penyimpanan Ditolak muncul. Anda dapat mengklik Buka Azure Storage untuk membuka Storage Explorer.

    'IntelliJ IDEA Storage Access Denied2'.

    Tombol IntelliJ IDEA Storage Access Ditolak2.

Mengonversi aplikasi IntelliJ IDEA yang ada untuk menggunakan Azure Toolkit untuk IntelliJ

Anda dapat mengonversi aplikasi Spark Scala yang ada yang Anda buat di IntelliJ IDEA agar kompatibel dengan Azure Toolkit untuk IntelliJ. Anda kemudian dapat menggunakan plug-in untuk mengirimkan aplikasi ke kluster HDInsight Spark.

  1. Untuk aplikasi Spark Scala yang ada yang dibuat melalui IntelliJ IDEA, buka file terkait .iml .

  2. Pada tingkat akar, adalah elemen modul seperti teks berikut:

    <module org.jetbrains.idea.maven.project.MavenProjectsManager.isMavenModule="true" type="JAVA_MODULE" version="4">
    

    Edit elemen untuk ditambahkan UniqueKey="HDInsightTool" sehingga elemen modul terlihat seperti teks berikut:

    <module org.jetbrains.idea.maven.project.MavenProjectsManager.isMavenModule="true" type="JAVA_MODULE" version="4" UniqueKey="HDInsightTool">
    
  3. Simpan perubahan. Aplikasi Anda sekarang harus kompatibel dengan Azure Toolkit untuk IntelliJ. Anda dapat mengujinya dengan mengklik kanan nama proyek di Project. Menu pop-up sekarang memiliki opsi Kirim Aplikasi Spark ke HDInsight.

Membersihkan sumber daya

Jika Anda tidak akan terus menggunakan aplikasi ini, hapus kluster yang Anda buat dengan langkah-langkah berikut:

  1. Masuk ke portal Azure.

  2. Dalam kotak Pencarian di bagian atas, ketik Microsoft Azure HDInsight.

  3. Pilih kluster Microsoft Azure HDInsight di Layanan.

  4. Dalam daftar kluster HDInsight yang muncul, pilih ... di samping kluster yang Anda buat untuk artikel ini.

  5. Pilih Hapus. Pilih Ya.

Portal Microsoft Azure menghapus kluster HDInsight.

Kesalahan dan solusi

Batalkan tanda folder src sebagai Sumber jika Anda mendapatkan kesalahan build yang gagal seperti di bawah ini:

Cuplikan layar memperlihatkan build gagal.

Hapus tanda folder src sebagai Sumber untuk mengatasi masalah ini:

  1. Navigasi ke File dan pilih Struktur Proyek.

  2. Pilih Modul di bawah Pengaturan Proyek.

  3. Pilih file src dan hapus tanda sebagai Sumber.

  4. Klik tombol Terapkan lalu klik tombol OK untuk menutup dialog.

    Cuplikan layar memperlihatkan pembatalan penandaan src sebagai sumber.

Langkah berikutnya

Dalam artikel ini, Anda mempelajari cara menggunakan plug-in Azure Toolkit for IntelliJ untuk mengembangkan aplikasi Apache Spark yang ditulis di Scala. Kemudian mengirimkannya ke kluster HDInsight Spark langsung dari lingkungan pengembangan terintegrasi IntelliJ (IDE). Lanjutkan ke artikel berikutnya untuk melihat bagaimana data yang Anda daftarkan di Apache Spark dapat ditarik ke dalam alat analitik BI seperti Power BI.