Aracılığıyla paylaş


SdcaLogisticRegressionBinaryTrainer Sınıf

Tanım

IEstimator<TTransformer> stokastik çift koordinatlı yükseliş yöntemini kullanarak ikili lojistik regresyon sınıflandırma modelini eğitmek için. Eğitilen model kalibre edilir ve doğrusal işlevin çıkış değerini bir PlattCalibratoröğesine besleyerek olasılık üretebilir.

public sealed class SdcaLogisticRegressionBinaryTrainer : Microsoft.ML.Trainers.SdcaBinaryTrainerBase<Microsoft.ML.Calibrators.CalibratedModelParametersBase<Microsoft.ML.Trainers.LinearBinaryModelParameters,Microsoft.ML.Calibrators.PlattCalibrator>>
type SdcaLogisticRegressionBinaryTrainer = class
    inherit SdcaBinaryTrainerBase<CalibratedModelParametersBase<LinearBinaryModelParameters, PlattCalibrator>>
Public NotInheritable Class SdcaLogisticRegressionBinaryTrainer
Inherits SdcaBinaryTrainerBase(Of CalibratedModelParametersBase(Of LinearBinaryModelParameters, PlattCalibrator))
Devralma

Açıklamalar

Bu eğitmeni oluşturmak için SdcaLogisticRegression veya SdcaLogisticRegression(Options) kullanın.

Giriş ve Çıkış Sütunları

Giriş etiketi sütun verileri olmalıdır Boolean. Giriş özellikleri sütun verileri bilinen boyutlu bir vektör Singleolmalıdır.

Bu eğitmen aşağıdaki sütunları oluşturur:

Çıkış Sütunu Adı Sütun Türü Description
Score Single Model tarafından hesaplanan ilişkisiz puan.
PredictedLabel Boolean Puanın işaretine göre tahmin edilen etiket. Negatif puan ile false , pozitif puan ise ile trueeşler.
Probability Single Etiket olarak true değerinin puanını ayarlayarak hesaplanan olasılık. Olasılık değeri [0, 1] aralığındadır.

Eğitmen Özellikleri

Makine öğrenmesi görevi İkili sınıflandırma
Normalleştirme gerekli mi? Yes
Önbelleğe alma gerekli mi? No
Microsoft.ML ek olarak gerekli NuGet Hiçbiri
ONNX'e aktarılabilir Yes

Eğitim Algoritması Ayrıntıları

Bu eğitmen Stochastic Dual Coordinate Ascent (SDCA) yöntemini temel alır, dışbükey objektif fonksiyonlar için son model bir iyileştirme tekniği. Algoritma, bir KDD en iyi çalışmasında açıklandığı gibi bir akış eğitim algoritması olduğundan ölçeklendirilebilir.

Yakınsama, ayrı bir iş parçacığındaki ilkel ve çift değişkenler arasında eşitlemeyi düzenli aralıklarla zorunlu kılarak yazılır. Menteşe kaybı ve lojistik kayıp gibi çeşitli kayıp işlevleri de sağlanır. Kullanılan kayıplara bağlı olarak, eğitilen model destek vektör makinesi veya lojistik regresyon gibi olabilir. SDCA yöntemi, akış öğrenmesi yapma (veri kümesinin tamamını belleğinize sığdırmadan), tüm veri kümesinin birkaç taramasıyla makul bir sonuca ulaşma (örneğin , bu makaledeki denemelere bakın) ve seyrek veri kümelerindeki sıfırlara hesaplama harcamama gibi en iyi özelliklerden birkaçını birleştirir.

SDCA'nın stokastik ve akış iyileştirme algoritması olduğunu unutmayın. Durdurma toleransı yeterince sıkı olmadığından sonuç eğitim verilerinin sırasına bağlıdır. Güçlü dışbükey iyileştirmede, en uygun çözüm benzersizdir ve bu nedenle sonunda herkes aynı yere ulaşır. Güçlü olmayan dışbükey durumlarda bile, çalıştırmadan çalıştırmaya eşit derecede iyi çözümler elde edersiniz. Yeniden üretilebilir sonuçlar için birinin 'Shuffle' değerini False ve 'NumThreads' değerini 1 olarak belirlemesi önerilir.

Bu sınıf, toplanan veriler üzerine oluşturulan iyileştirme sorununu formüle etmek için ampirik risk en aza indirerek (ERM) kullanır. Ampirik riskin genellikle modelin toplanan veri noktalarındaki tahminlerine bir kayıp işlevi uygulanarak ölçüldüğünü unutmayın. Eğitim verileri yeterli veri noktası içermiyorsa (örneğin, $n$boyutlu alanda doğrusal bir modeli eğitmek için en az $n$ veri noktalarına ihtiyacımız vardır), ERM tarafından üretilen modelin eğitim verilerini açıklamada iyi olması ancak görünmeyen olaylarda doğru sonuçları tahmin etmede başarısız olması için fazla uygunluk gerçekleşebilir. Düzenlileştirme , model parametrelerinin büyüklüğünü (genellikle norm işleviyle ölçülür) azaltarak böyle bir olguyu hafifletmek için yaygın bir tekniktir. Bu eğitmen, L1-norm (LASSO), $|| doğrusal bir kombinasyonunu cezalandıran esnek net düzenlileştirmeyi destekler \textbf{w}_c || _1$ ve L2-norm (sırt), $|| \textbf{w}_c || _2^2$ $c=1,\dots,m$ için normalleştirmeler. L1-norm ve L2-norm düzenlileştirmeleri, belirli bakımlardan tamamlayıcı olan farklı etkilere ve kullanımlara sahiptir.

Uygulanan iyileştirme algoritmasıyla birlikte L1-norm normalleştirmesi, $\textbf{w}_1,\dots,\textbf{w}_m$ model ağırlıklarının sıklığını artırabilir. Yüksek boyutlu ve seyrek veri kümelerinde, kullanıcılar L1 norm katsayısını dikkatle seçerse, tahmin gücünü etkilemeden yalnızca birkaç sıfır olmayan ağırlığa (örneğin, toplam model ağırlıklarının %1'i) sahip bir modelle iyi bir tahmin kalitesi elde etmek mümkündür. Buna karşılık, L2-norm eğitilen modelin sparsity'sini artıramaz, ancak yine de büyük parametre değerlerinden kaçınarak fazla uygunluğu önleyebilir. Bazen L2-norm kullanılması daha iyi bir tahmin kalitesine yol açar, bu nedenle kullanıcılar yine de bunu denemek ve L1-norm ve L2-norm katsayılarında ince ayar yapmak isteyebilir. Kavramsal olarak L1-norm'un kullanılması, tüm model parametrelerinin dağılımının bir Laplace dağılımı olduğunu, L2-norm ise onlar için Bir Gauss dağılımı anlamına gelir.

Agresif bir düzenlileştirme (yani L1-norm veya L2-norm düzenleme koşullarına büyük katsayılar atamak), önemli değişkenleri modelden dışlayarak tahmine dayalı kapasiteye zarar verebilir. Örneğin, çok büyük bir L1 norm katsayısı tüm parametreleri sıfır olmaya zorlayabilir ve önemsiz bir modele yol açabilir. Bu nedenle, doğru normalleştirme katsayılarının seçilmesi pratikte önemlidir.

Daha fazla bilgi için bkz.

Kullanım örneklerinin bağlantıları için Ayrıca Bkz. bölümüne bakın.

Alanlar

FeatureColumn

Eğitmenin beklediği özellik sütunu.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Eğitmenin beklediği etiket sütunu. etiketin eğitim için kullanılmadığını gösteren olabilir null.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Eğitmenin beklediği ağırlık sütunu. nullolabilir, bu da ağırlığın eğitim için kullanılmadığını gösterir.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)

Özellikler

Info

IEstimator<TTransformer> stokastik çift koordinatlı yükseliş yöntemini kullanarak ikili lojistik regresyon sınıflandırma modelini eğitmek için. Eğitilen model kalibre edilir ve doğrusal işlevin çıkış değerini bir PlattCalibratoröğesine besleyerek olasılık üretebilir.

(Devralındığı yer: SdcaBinaryTrainerBase<TModelParameters>)

Yöntemler

Fit(IDataView)

bir ITransformereğitip döndürür.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

IEstimator<TTransformer> stokastik çift koordinatlı yükseliş yöntemini kullanarak ikili lojistik regresyon sınıflandırma modelini eğitmek için. Eğitilen model kalibre edilir ve doğrusal işlevin çıkış değerini bir PlattCalibratoröğesine besleyerek olasılık üretebilir.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)

Uzantı Metotları

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Tahmin zincirine 'önbelleğe alma denetim noktası' ekleme. Bu, aşağı akış tahmincilerinin önbelleğe alınan verilere karşı eğitilmesini sağlar. Birden çok veri geçiren eğitmenlerden önce bir önbelleğe alma kontrol noktası olması yararlıdır.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Tahmin aracı verildiğinde, bir temsilci çağrıldıktan sonra Fit(IDataView) çağıracak bir sarmalama nesnesi döndürün. Tahmin aracının neyin uygun olduğu hakkında bilgi döndürmesi genellikle önemlidir; bu nedenle Fit(IDataView) yöntem yalnızca genel ITransformerbir nesne yerine özel olarak yazılan bir nesne döndürür. Bununla birlikte, aynı zamanda, IEstimator<TTransformer> genellikle birçok nesne içeren işlem hatları halinde oluşturulur, bu nedenle transformatörü almak istediğimiz tahmin aracının EstimatorChain<TLastTransformer> bu zincirde bir yere gömülü olduğu bir tahmin aracı zinciri oluşturmamız gerekebilir. Bu senaryo için, bu yöntem aracılığıyla sığdır çağrıldıktan sonra çağrılacak bir temsilci ekleyebiliriz.

Şunlara uygulanır

Ayrıca bkz.