Aracılığıyla paylaş


Two-Class Yerel Olarak Derin Destek Vektör Makinesi

Önemli

Machine Learning Stüdyosu (klasik) desteği 31 Ağustos 2024'te sona erecektir. Bu tarihe kadar Azure Machine Learning'e geçmenizi öneririz.

1 Aralık 2021'den başlayarak artık yeni Machine Learning Stüdyosu (klasik) kaynakları oluşturamayacaksınız. 31 Ağustos 2024'e kadar mevcut Machine Learning Stüdyosu (klasik) kaynaklarını kullanmaya devam edebilirsiniz.

ML Stüdyosu (klasik) belgeleri kullanımdan kaldırılacak ve gelecekte güncelleştirilmeyecektir.

Yerel olarak derin Destek Vektör Makinesi algoritmasını kullanarak ikili sınıflandırma modeli oluşturur

Kategori: Machine Learning / Modeli Başlat / Sınıflandırma

Not

Şunlar için geçerlidir: yalnızca Machine Learning Studio (klasik)

Benzer sürükle ve bırak modülleri de Azure Machine Learning tasarımcısında kullanılabilir.

Modüle genel bakış

Bu makalede, verimli tahmin için iyileştirilmiş iki sınıflı, doğrusal olmayan bir destek vektör makineleri (SVM) sınıflandırıcısı oluşturmak için Machine Learning Studio'da (klasik) İki Sınıflı Yerel Olarak Derin Destek Vektör Makinesi modülünün nasıl kullanılacağı açıklanmaktadır.

Destek vektörü makineleri (SVM'ler), doğrusal ve doğrusal olmayan sınıflandırma görevlerinde kullanılabilen son derece popüler ve iyi araştırılmış bir denetimli öğrenme modeli sınıfıdır. Son araştırmalar, daha büyük eğitim kümelerine verimli bir şekilde ölçeklendirilmek üzere bu modelleri iyileştirmenin yollarına odaklanmıştır. Microsoft Research'ün bu uygulamasında, veri noktalarını özellik alanına eşlemek için kullanılan çekirdek işlevi, sınıflandırma doğruluğunun çoğunu korurken eğitim için gereken süreyi azaltmak için özel olarak tasarlanmıştır.

Bu model denetimli bir öğrenme yöntemidir ve bu nedenle etiket sütunu içeren etiketli bir veri kümesi gerektirir.

Model parametrelerini tanımladıktan sonra modeli ve etiketli bir veri kümesini Modeli Eğitme veya ModelAyarlama Hiper Parametreleri'ne giriş olarak sağlayarak eğitin. Eğitilen model daha sonra yeni girişlerin değerlerini tahmin etmek için kullanılabilir.

Two-Class Yerel Olarak Derin Destek Vektör Makinesi nasıl yapılandırılır?

  1. Studio'daki (klasik) denemenize İki Sınıflı Locally-Deep Destek Vektör Makinesi modülünü ekleyin.

  2. Eğitmen modu oluştur seçeneğini ayarlayarak modelin nasıl eğitileceğini belirtin.

    • Tek Parametre: Modeli nasıl yapılandırmak istediğinizi biliyorsanız, bağımsız değişken olarak belirli bir değer kümesi sağlayın.

    • Parametre Aralığı: En iyi parametrelerden emin değilseniz, birden çok değer belirterek ve en uygun yapılandırmayı bulmak için Model Hiper Parametreleri Ayarlama modülünü kullanarak en uygun parametreleri bulabilirsiniz. Eğitmen, sağladığınız ayarların birden çok bileşimini yineler ve en iyi modeli üreten değerlerin bileşimini belirler.

  3. Ağacın Derinliği için, yerel derin çekirdek öğrenme SVM (LD-SVM) modeli tarafından oluşturulabilecek en büyük ağaç derinliğini belirtin.

    Ağaç derinliği ile doğrusal olarak eğitim maliyeti artar; bu nedenle, modeli oluştururken harcayabileceğiniz süreye bağlı olarak uygun bir derinlik seçin.

    Derinlik bir arttıkça eğitim süresi kabaca iki katına çıkar.

    Tahmin doğruluğu artmalı, zirveye ulaşmalı ve daha sonra artan derinlikle azalmalıdır.

  4. Lambda W için, normalleştirme terimine verilmesi gereken ağırlığı belirtin.

    Düzenlileştirme, eğitilen sınıflandırıcıdaki büyük değer bileşenlerini kısıtlar. Özellik sayısı göz önüne alındığında örnek sayısı yetersiz olduğunda, fazla uygunluktan kaçınmak için L2 düzenlileştirmesini kullanabilirsiniz. Lambda W için daha büyük değerler, sınıflandırıcı ağırlıklarını düzenlileştirmeye daha fazla vurgu ve eğitim kümesi sınıflandırma hatasına daha az önem verilmesi anlamına gelir.

    Varsayılan değer (0,1) düzgün çalışmıyorsa {0,0001, 0,001 ve 0,01} değerlerini de denemeniz gerekir.

  5. Lambda Theta için, bölge sınırı ile en yakın veri noktası arasında ne kadar alan bırakılacağını belirtin.

    Bu model, veri alanını ve özellik alanını bölgelere bölerek çalışır. Lambda Teta, eğitilen modeldeki bölge sınırlarının eğitim veri noktalarına çok yakın olduğu şekilde simge durumuna küçültüldüyse model düşük bir eğitim hatasına, ancak fazla uygunluk nedeniyle yüksek test hatasına neden olabilir.

    Doğrulanması gereken parametre sayısını azaltmak için, Lambda Theta'yı LambdaW için kullanılan değerin onda birine ayarlamak iyi bir kuraldır. Daha büyük değerler, eğitim kümesindeki sınıflandırma hatalarını en aza indirmeye kıyasla fazla uygunluk önlemeye daha fazla önem verilmesi anlamına gelir.

    Varsayılan değer (0,01) düzgün çalışmıyorsa {0,0001, 0,001 ve 0,1} değerlerini de denemeniz gerekir.

  6. Lambda Theta Prime için modeldeki karar sınırlarında izin verilen eğrilik miktarını denetlemek için bir değer yazın.

    Daha büyük değerler modele eğri karar sınırlarını öğrenme esnekliği sağlarken, daha küçük değerler karar sınırlarını adım adım doğrusal desenle kısıtlayabilir.

    Bu parametre Sigma parametresiyle birlikte çalışır. Doğrulanması gereken parametre sayısını azaltmak için Lambda Theta Prime değerini LambdaW değerinin onda birine ayarlamak iyi bir kuraldır.

    Varsayılan değer (0,01) düzgün çalışmıyorsa {0,0001, 0,001 ve 0,1,} değerlerini de denemeniz gerekir.

  7. Sigmoid keskinliği için, ölçeklendirme parametresi σ için kullanılacak bir değer yazın.

    Daha büyük değerler, yerel çekirdek Θ (teta) içindeki tanh değerinin doygun olduğu, daha küçük bir değer ise teta için daha doğrusal bir çalışma aralığı anlamına gelir. Tam iyileştirme formülünü Teknik Notlar bölümünde bulabilirsiniz.

    Varsayılan değer (1) düzgün çalışmıyorsa {0.1, 0.01, 0.001} seçeneğini de deneyebilirsiniz.

  8. Yineleme sayısı bölümünde, algoritmanın sınıflandırıcı parametrelerini rastgele bir örnek alt kümesiyle kaç kez güncelleştirmesi gerektiğini belirtin.

  9. Özellik normalleştiricisi için özellik değerlerini normalleştirmede kullanılacak bir yöntem seçin. Aşağıdaki yöntemler desteklenir:

    • Gruplama normalleştiricisi: Gruplama normalleştiricisi, eşit boyutta bölmeler oluşturur ve ardından her bölmedeki her değeri toplam bölme sayısına bölünecek şekilde normalleştirir.

    • Gauss normalleştiricisi: Gauss normalleştiricisi, her özelliğin değerlerini 0 ortalamasına ve 1 varyansına sahip olacak şekilde yeniden ölçekler. Bu, her özelliğin ortalamasını ve varyansını hesaplayarak gerçekleştirilir. Ardından, her örnek için ortalama değer çıkarılır ve sonuç varyans kare köküne (standart sapma) bölünür.

    • Min-Max normalleştiricisi: Min-max normalleştiricisi, her özelliği doğrusal olarak [0,1] aralığına göre yeniden ölçekler.

      [0,1] aralığına yeniden ölçeklendirme, her özelliğin değerleri en düşük değerin 0 olması için kaydırılarak ve ardından yeni en büyük değere (özgün en büyük ve en düşük değerler arasındaki fark) bölünerek yapılır.

    • Normalleştirme: Normalleştirme yapılmaz.

  10. Rastgele sayı tohumu alanında, çalıştırmalar arasında yeniden üretilebilirlik sağlamak istiyorsanız, tohum olarak kullanılacak bir değer yazın.

  11. Test veya doğrulama kümelerindeki bilinmeyen değerler için grup oluşturmak için Bilinmeyen kategorik düzeylere izin ver seçeneğini belirleyin.

    Seçimi kaldırırsanız, model yalnızca eğitim verilerinde yer alan değerleri kabul edebilir. Önceki örnekte model bilinen değerler için daha az kesin olabilir ancak yeni (bilinmeyen) değerler için daha iyi tahminler sağlayabilir.

  12. Etiketli bir veri kümesini ve eğitim modüllerinden birini Bağlan:

    Not

    Modeli Eğitme'ye bir parametre aralığı geçirirseniz, parametre aralığı listesindeki yalnızca ilk değeri kullanır.

    Model Hiper Parametreleri Ayarlama modülüne tek bir parametre değeri kümesi geçirirseniz, her parametre için bir dizi ayar beklediğinde değerleri yoksayar ve öğrenci için varsayılan değerleri kullanır.

    Parametre Aralığı seçeneğini belirleyip herhangi bir parametre için tek bir değer girerseniz, diğer parametreler bir değer aralığında değişse bile, belirttiğiniz tek değer süpürme boyunca kullanılır.

  13. Denemeyi çalıştırın.

Sonuçlar

Eğitim tamamlandıktan sonra:

  • Modelin parametrelerinin özetini görmek için Modeli Eğitme modülünün veya Model Hiper Parametreleri Ayarlama modülünün çıkışına sağ tıklayın ve Görselleştir'i seçin.

  • Eğitilen modelin snapshpt'sini kaydetmek için Eğitilen model çıkışına sağ tıklayın ve Eğitilen Model Olarak Kaydet'i seçin. Bu model, aynı denemenin ardışık çalıştırmalarında güncelleştirilmez.

  • Etiketlenmiş bir veri kümesinde çapraz doğrulama gerçekleştirmek için eğitilmemiş modeli Çapraz Doğrulama Modeli'ne bağlayın.

Teknik notlar

Bu bölüm uygulama ayrıntılarını, ipuçlarını ve sık sorulan soruların yanıtlarını içerir.

Kullanım ipuçları

Bu LD-SVM sınıflandırıcısı en çok aşağıdaki koşullarda kullanışlıdır:

  • İkili sınıflandırma sorununuz var veya sorununuzu ikili sınıflandırma görevine düşürebilirsiniz.

  • Doğrusal sınıflandırıcıyı denediniz, ancak iyi performans göstermedi.

  • Doğrusal olmayan bir SVM'yi veya başka bir sınıflandırıcıyı denediniz ve iyi bir sınıflandırma doğruluğu elde ettiniz, ancak modeli eğitmek çok uzun sürdü.

  • Eğitim süresini kısaltmak için tahmin doğruluğunu feda edebilirsiniz.

LD-SVM modelleri, verileriniz doğrusal modellerin (lojistik regresyon gibi) kötü performans gösterebilecek kadar karmaşık olduğunda iyi bir seçimdir. LD-SVM modelleri, mobil cihazlarda veya karmaşık modellerin (sinir ağları gibi) verimli bir şekilde kullanamayacak kadar büyük olduğu diğer senaryolarda kullanılacak kadar küçüktür.

Buna karşılık, model boyutuna önem vermiyorsanız veya basitlik veya tahmin hızı için doğrusal bir model gerekiyorsa bu model kullanılmamalıdır. Doğrusal sınıflandırıcılar zaten iyi sonuçlar veriyorsa veya küçük miktarlarda doğrusal olmayanlık ekleyerek yüksek sınıflandırma doğruluğu elde edebilirseniz LD-SVM olarak değiştirmenin bir anlamı yoktur.

Uygulama ayrıntıları

LD-SVM modeli, doğrusal olmayan SVM tahminini hızlandırmaya yönelik devam eden çabaların bir parçası olarak Microsoft Research tarafından geliştirilmiştir. Gonen ve Alpaydin'in (2008) yerelleştirilmiş çoklu çekirdek öğrenme yöntemi üzerindeki çalışmaları özellikle değerliydi. Yerel çekirdek işlevinin kullanılması, modelin modele doğrusal olmayan özellikler getiren yüksek boyutlu, seyrek ve hesaplama açısından derin özellikler de dahil olmak üzere rastgele yerel özellik eklemelerini öğrenmesini sağlar.

LD-SVM, çeşitli nedenlerle diğer sınıflandırıcılardan daha hızlıdır:

  • Model, yerel olarak doğrusal olan karar sınırlarını öğrenir. Bu nedenle, bir test noktası, özellik alanının tamamında tüm karar sınırları kümesine karşı test etmek yerine, bunu yerel karar sınırına göre test ederek verimli bir şekilde sınıflandırılabilir.

  • Model, yarım milyondan fazla eğitim noktasıyla büyük eğitim kümelerine ölçeklendirilen ağaç yapılandırılmış yerel özellik eklemelerinin alanını iyileştirmek için verimli ilkel tabanlı yordamlar kullanır.

  • Bir noktayı yerel karar sınırına göre test etme maliyeti, eğitim noktalarının sayısında logaritmiktir.

Bu iyileştirmelerin bir sonucu olarak LD-SVM modelini eğitme, geleneksel SVM modellerini eğitmekten çok daha hızlıdır.

İyileştirme formülü

optimization formula

Araştırma

Algoritma ve temel alınan araştırma hakkında daha fazla bilgi için bkz. Verimli Doğrusal Olmayan SVM Tahmini için Yerel Derin Çekirdek Learning.

Modül parametreleri

Name Aralık Tür Varsayılan Description
Eğitmen modu oluşturma Liste Learner parametre seçeneği Tek Parametre Gelişmiş öğrenci seçenekleri:

1. Tek bir parametre kullanarak öğrenci oluşturma
2. Parametre aralığı kullanarak öğrenci oluşturma
Ağacın derinliği >=1 Tamsayı 3 Yerel olarak derin SVM ağacının derinliği.
Lambda W >=1.401298E-45 Float 0.1 Lambda W sınıflandırıcı parametresi için normalleştirme ağırlığı.
Lambda Theta >=1.401298E-45 Float 0.01 Lambda Theta sınıflandırıcı parametresi için normalleştirme ağırlığı.
Lambda Theta Prime >=1.401298E-45 Float 0.01 Lambda Theta prime sınıflandırıcı parametresi için normalleştirme ağırlığı.
Sigmoid keskinliği >=1.401298E-45 Float 1.0 Sigmoid keskinliği.
Ağacın derinliği [1;int. MaxValue] ParameterRangeSettings 1; 3; 5; 7 Yerel olarak derin SVM ağacının derinliği için aralık.
Lambda W [1.401298E-45;3.40282347E+38] ParameterRangeSettings 0.1; 0.01; 0.001 Lambda W sınıflandırıcı parametresi için normalleştirme ağırlığı aralığı.
Lambda Theta [1.401298E-45;3.40282347E+38] ParameterRangeSettings 0.1; 0.01; 0.001 Lambda Theta sınıflandırıcı parametresi için düzenlileştirme ağırlığı aralığı.
Lambda Theta Prime [1.401298E-45;3.40282347E+38] ParameterRangeSettings 0.1; 0.01; 0.001 Lambda Theta prime' sınıflandırıcı parametresi için düzenlileştirme ağırlığı aralığı.
Sigmoid keskinliği [1.401298E-45;3.40282347E+38] ParameterRangeSettings 1.0; 0.1; 0.01 Sigmoid keskinliği için aralık.
Özellik normalleştiricisi Liste Normalleştirici türü Min-Max normalleştirici Öğrenme örneklerine uygulanacak normalleştirme türü.
Yineleme sayısı >=1 Tamsayı 15000 Öğrenme yinelemelerinin sayısı.
Yineleme sayısı [1;int. MaxValue] ParameterRangeSettings 10000; 15000; 20000 Öğrenme yinelemelerinin sayısı için aralık.
Rastgele sayı tohumu Herhangi biri Tamsayı Model tarafından kullanılan rastgele sayı oluşturucunun tohumu. Varsayılan değer için boş bırakın.
Bilinmeyen kategorik düzeylere izin ver Herhangi biri Boole Doğru True ise, her kategorik sütun için ek bir düzey oluşturur. Eğitim veri kümesinde bulunmayan test veri kümesindeki tüm düzeyler bu ek düzeye eşlenir.

Çıktı

Ad Tür Description
Eğitilmemiş model ILearner arabirimi Eğitilmemiş ikili sınıflandırma modeli.

Ayrıca bkz.

Sınıflandırma
A-Z Modül Listesi