Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
Bu öğreticide, Scala'da yazılmış Apache Spark uygulamaları geliştirmek ve bunları doğrudan IntelliJ tümleşik geliştirme ortamından (IDE) sunucusuz bir Apache Spark havuzuna göndermek için IntelliJ için Azure Toolkit eklentisinin nasıl kullanılacağı gösterilmektedir. Eklentiyi birkaç şekilde kullanabilirsiniz:
- Spark havuzunda Scala Spark uygulaması geliştirin ve gönderin.
- Spark havuzlarınızın kaynaklarına erişin.
- Scala Spark uygulamasını yerel olarak geliştirin ve çalıştırın.
Bu öğreticide aşağıdakilerin nasıl yapılacağını öğreneceksiniz:
- Azure Toolkit for IntelliJ eklentisini kullanma
- Apache Spark uygulamaları geliştirme
- Spark havuzlarına uygulama gönderme
Önkoşullar
Azure araç seti eklentisi 3.27.0-2019.2 – IntelliJ Eklentisi deposundan yükleme
Aşağıdaki önkoşul yalnızca Windows kullanıcıları için geçerlidir:
Yerel Spark Scala uygulamasını bir Windows bilgisayarda çalıştırırken SPARK-2356'da açıklandığı gibi bir özel durum alabilirsiniz. Windows'ta WinUtils.exe eksik olduğundan özel durum oluşur. Bu hatayı çözmek için WinUtils yürütülebilir dosyasını C:\WinUtils\bin gibi bir konuma indirin. Ardından HADOOP_HOME ortam değişkenini ekleyin ve değişkenin değerini C:\WinUtils olarak ayarlayın.
Spark havuzu için Spark Scala uygulaması oluşturma
IntelliJ IDEA'yı başlatın ve Yeni Proje Oluştur'u seçerek Yeni Proje penceresini açın.
Sol bölmeden Apache Spark/HDInsight'ı seçin.
Ana pencerede Örneklerle Spark Projesi(Scala) seçeneğini belirleyin.
Yapı aracı açılan listesinden aşağıdaki türlerden birini seçin:
- Scala için Maven proje oluşturma sihirbazı desteği.
- Scala projesi için bağımlılıkları yönetmeye ve oluşturmaya yönelik SBT .
İleri'yi seçin.
Yeni Proje penceresinde aşağıdaki bilgileri sağlayın:
Mülk Açıklama Proje adı Bir ad girin. Bu öğreticide myAppkullanılır.Proje konumu Projenizi kaydetmek için istenen konumu girin. Proje SDK'sı IDEA'yı ilk kullandığınızda boş olabilir. Yeni... öğesini seçin ve JDK'nize gidin. Spark Sürümü Oluşturma sihirbazı, Spark SDK ve Scala SDK'sı için uygun sürümü tümleştirir. Burada ihtiyacınız olan Spark sürümünü seçebilirsiniz.
Bitir'i seçin. Projenin kullanılabilir duruma gelmesi birkaç dakika sürebilir.
Spark projesi sizin için otomatik olarak bir yapıt oluşturur. Yapıtı görüntülemek için aşağıdaki işlemi yapın:
a. Menü çubuğundan Dosya>. seçeneğine gidin.
b. Proje Yapısı penceresinde Yapıtlar'ı seçin.
c. Yapıtı görüntüledikten sonra İptal'i seçin.
LogQuery'yi myApp>src>main>scala>örnek>LogQuery'den bulun. Bu öğreticide çalıştırmak için LogQuery kullanılır.
Spark havuzlarınıza bağlanma
Spark havuzlarınıza bağlanmak için Azure aboneliğinde oturum açın.
Azure aboneliğinizde oturum açın
Menü çubuğundan Görünüm>Araç Pencereleri>Azure Gezgini'ne gidin.
Azure Gezgini'nde Azure düğümüne sağ tıklayıp Oturum Aç'ı seçin.
Azure Oturum Aç iletişim kutusunda Cihaz Oturum Açma'yı ve ardından Oturum aç'ı seçin.
Azure Cihaz Oturum Açma iletişim kutusunda Kopyala ve Aç'ı seçin.
Tarayıcı arabiriminde kodu yapıştırın ve İleri'yi seçin.
Azure kimlik bilgilerinizi girin ve tarayıcıyı kapatın.
Oturum açtıktan sonra Abonelikleri Seç iletişim kutusunda, kimlik bilgileriyle ilişkili tüm Azure abonelikleri listelenir. Aboneliğinizi ve ardından Seç'i seçin.
Azure Gezgini'nde Synapse üzerinde Apache Spark'ı genişleterek aboneliklerinizdeki Çalışma Alanlarını görüntüleyin.
Spark havuzlarını görüntülemek için çalışma alanını daha da genişletebilirsiniz.
Spark havuzunda Spark Scala uygulamasını uzaktan çalıştırma
Scala uygulamasını oluşturduktan sonra uzaktan çalıştırabilirsiniz.
Simgeyi seçerek Çalıştır/Yapılandırma penceresini açın.
Çalıştır/Hata Ayıklama Yapılandırmaları iletişim penceresinde + öğesini seçin, ardından Synapse'te Apache Spark'ı seçin.
Çalıştırma/Hata Ayıklama Yapılandırmaları penceresinde aşağıdaki değerleri sağlayın ve tamam'ı seçin:
Mülk Değer Spark havuzları Uygulamanızı çalıştırmak istediğiniz Spark havuzlarını seçin. Göndermek için bir Yapıt seçin Varsayılan ayarı değiştirmeyin. Ana sınıf adı Varsayılan değer, seçili dosyadaki ana sınıftır. Sınıfı değiştirmek için üç noktayı (...) seçin ve ardından başka bir sınıf seçin. İş yapılandırmaları Varsayılan anahtarı ve değerleri değiştirebilirsiniz. Daha fazla bilgi için bkz . Apache Livy REST API. Komut satırı argümanları Gerekirse, ana sınıf için boşlukla ayrılmış bağımsız değişkenler girebilirsiniz. Başvuruda Belirtilen Jar'lar ve Başvurulan Dosyalar Başvuruda bulunan Jar'ların ve varsa dosyaların yollarını girebilirsiniz. Şu anda yalnızca ADLS 2. Nesil kümesini destekleyen Azure sanal dosya sistemindeki dosyalara da göz atabilirsiniz. Daha fazla bilgi için: Apache Spark Yapılandırması ve Kaynakları kümeye yükleme. Görev Yükleme Depolama Alanı Ek seçenekleri göstermek için genişletin. Depolama Türü Açılır listeden Karşıya yüklemek için Azure Blob'u kullan veya Karşıya yüklemek için küme varsayılan depolama hesabını kullan seçeneklerinden birini seçin. Depolama Hesabı Depolama hesabınızı girin. Depolama Anahtarı Depolama anahtarınızı girin. Depolama Kapsayıcısı Depolama Hesabı ve Depolama Anahtarı girildikten sonra açılan listeden depolama kapsayıcınızı seçin.
Projenizi seçili Spark havuzuna göndermek için SparkJobRun simgesini seçin. Kümedeki Uzak Spark İşi sekmesi, iş yürütme ilerlemesini en altta görüntüler. Kırmızı düğmeyi seçerek uygulamayı durdurabilirsiniz.
Yerel Çalıştırma/Apache Spark uygulamalarında hata ayıklama
Apache Spark işiniz için yerel çalıştırmanızı ve yerel hata ayıklamanızı ayarlamak için aşağıdaki yönergeleri izleyebilirsiniz.
Senaryo 1: Yerel çalıştırma
Çalıştır/Yapılandırmalarda Hata Ayıkla iletişim kutusunu açın, artı işaretini ()+ seçin. Ardından Synapse üzerinde Apache Spark seçeneğini belirleyin. Kaydedilecek Ad, Ana sınıf adı bilgilerini girin.
- Ortam değişkenleri ve WinUtils.exe Konumu yalnızca Windows kullanıcıları içindir.
- Ortam değişkenleri: Sistem ortam değişkeni daha önce ayarladıysanız ve el ile eklemeniz gerekmiyorsa otomatik olarak algılanabilir.
- WinUtils.exe Konumu: Sağ taraftaki klasör simgesini seçerek WinUtils konumunu belirtebilirsiniz.
Ardından yerel oynat düğmesini seçin.
Yerel çalıştırma tamamlandıktan sonra, betik çıktı içeriyorsa, çıktı dosyasını veri>varsayılan konumundan kontrol edebilirsiniz.
Senaryo 2: Yerel hata ayıklama yapma
LogQuery betiğini açın, kesme noktalarını ayarlayın.
Yerel hata ayıklama yapmak için Yerel hata ayıklama simgesini seçin.
Synapse Çalışma Alanına erişme ve yönetme
Azure Gezgini'nde Azure Toolkit for IntelliJ içinde farklı işlemler gerçekleştirebilirsiniz. Menü çubuğundan Görünüm>Araç Pencereleri>Azure Gezgini'ne gidin.
Çalışma alanını başlatın
Azure Gezgini'nden Synapse'te Apache Spark'a gidin ve genişletin.
Bir çalışma alanına sağ tıklayın, ardından Çalışma alanını başlat'ı seçin; web sitesi açılır.
Spark konsolu
Spark Yerel Konsolu'nu (Scala) veya Spark Livy Etkileşimli Oturum Konsolu'nu (Scala) çalıştırabilirsiniz.
Spark yerel konsolu (Scala)
WINUTILS.EXE önkoşulunu karşıladığınızdan emin olun.
Menü çubuğundan Yapılandırmaları Düzenle...>.
Çalıştırma/Hata Ayıklama Yapılandırmaları penceresinde, sol bölmede Synapse üzerinde Apache Spark>[Spark on Synapse] myApp öğesine gidin.
Ana pencerede Yerel Olarak Çalıştır sekmesini seçin.
Aşağıdaki değerleri sağlayın ve tamam'ı seçin:
Özellik Değer Ortam değişkenleri HADOOP_HOME değerinin doğru olduğundan emin olun. WINUTILS.exe konumu Yolun doğru olduğundan emin olun.
Project'ten myApp>src>main>scala>myApp konumuna gidin.
Menü çubuğundan Araçlar>> seçeneğine gidin.
Ardından, bağımlılıkları otomatik olarak düzeltmek isteyip istemediğinizi sormak için iki iletişim kutusu görüntülenebilir. Öyleyse, Otomatik Düzeltme'yi seçin.
Konsol aşağıdaki resme benzer görünmelidir. Konsol penceresine yazın
sc.appNameve ardından ctrl+Enter tuşlarına basın. Sonuç gösterilir. Kırmızı düğmeyi seçerek yerel konsolu durdurabilirsiniz.
Spark Livy etkileşimli oturum konsolu (Scala)
Yalnızca IntelliJ 2018.2 ve 2018.3'te desteklenir.
Menü çubuğundan Yapılandırmaları Düzenle...>.
Çalıştırma/Hata Ayıklama Yapılandırmaları penceresinde, sol bölmede Synapse üzerinde Apache Spark>[Synapse üzerinde Spark] myApp seçeneğine gidin.
Ana pencerede Kümede Uzaktan Çalıştır sekmesini seçin.
Aşağıdaki değerleri sağlayın ve tamam'ı seçin:
Özellik Değer Ana sınıf adı Ana sınıf adını seçin. Spark havuzları Uygulamanızı çalıştırmak istediğiniz Spark havuzlarını seçin.
Project'ten, myApp>src>main>scala>myApp konumuna gidin.
Menü çubuğundan Araçlar>> çalıştır'a gidin.
Konsol aşağıdaki resme benzer görünmelidir. Konsol penceresine yazın
sc.appNameve ardından ctrl+Enter tuşlarına basın. Sonuç gösterilir. Kırmızı düğmeyi seçerek yerel konsolu durdurabilirsiniz.
Seçimi Spark konsoluna gönder
Yerel konsola veya Livy Interactive Session Console'a (Scala) kod göndererek betik sonucunu görmek isteyebilirsiniz. Bunu yapmak için Scala dosyasındaki bazı kodları vurgulayabilir ve ardından Seçimi Spark konsoluna Gönder'e sağ tıklayabilirsiniz. Seçilen kod konsola gönderilir ve tamamlanır. Sonuç, konsoldaki koddan sonra görüntülenir. Konsol mevcut hataları denetler.