SgdNonCalibratedTrainer Classe
Définition
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
Pour l’apprentissage IEstimator<TTransformer> de la régression logistique à l’aide d’une méthode de dégradé stochastique parallèle.
public sealed class SgdNonCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Trainers.LinearBinaryModelParameters>
type SgdNonCalibratedTrainer = class
inherit SgdBinaryTrainerBase<LinearBinaryModelParameters>
Public NotInheritable Class SgdNonCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of LinearBinaryModelParameters)
- Héritage
-
LinearTrainerBase<BinaryPredictionTransformer<TModel>,TModel>SgdNonCalibratedTrainer
Remarques
Pour créer ce formateur, utilisez SgdNonCalibrated ou SgdNonCalibrated(Options).
Colonnes d’entrée et de sortie
Les données de la colonne d’étiquettes d’entrée doivent être Boolean. Les données de colonne des caractéristiques d’entrée doivent être un vecteur de taille connue de Single. Ce formateur génère les colonnes suivantes :
Nom de colonne de sortie | Type de colonne | Description |
---|---|---|
Score |
Single | Score non lié calculé par le modèle. |
PredictedLabel |
Boolean | Étiquette prédite, en fonction du signe du score. Un score négatif est mappé à false , tandis qu’un score positif est mappé à true . |
Caractéristiques de l’entraîneur
Tâche d’apprentissage automatique | Classification binaire |
La normalisation est-elle nécessaire ? | Oui |
La mise en cache est-elle requise ? | Non |
NuGet requis en plus de Microsoft.ML | Aucun |
Exportable vers ONNX | Oui |
Détails de l’algorithme d’apprentissage
La descente stochastique de gradient (SGD) est l’une des procédures d’optimisation stochastiques populaires qui peuvent être intégrées à plusieurs tâches de Machine Learning pour atteindre des performances de pointe. Cet entraîneur implémente la descente de gradient stochastique Hogwild pour la classification binaire qui prend en charge le multithreading sans verrouillage. Si le problème d’optimisation associé est éparse, Hogwild Stochastic Gradient Descent atteint un taux presque optimal de convergence. Pour plus d’informations sur Hogwild Stochastic Gradient Descent, consultez cette page.
Consultez la section Voir aussi pour obtenir des liens vers des exemples d’utilisation.
Champs
FeatureColumn |
Colonne de caractéristique attendue par l’entraîneur. (Hérité de TrainerEstimatorBase<TTransformer,TModel>) |
LabelColumn |
Colonne d’étiquette attendue par l’entraîneur. Peut être |
WeightColumn |
Colonne de poids attendue par l’entraîneur. Peut être |
Propriétés
Info |
Pour l’apprentissage IEstimator<TTransformer> de la régression logistique à l’aide d’une méthode de dégradé stochastique parallèle. (Hérité de SgdBinaryTrainerBase<TModel>) |
Méthodes
Fit(IDataView, LinearModelParameters) |
Poursuit l’entraînement d’un SdcaLogisticRegressionBinaryTrainer utilisateur déjà formé |
Fit(IDataView) |
Effectue l’apprentissage et retourne un ITransformer. (Hérité de TrainerEstimatorBase<TTransformer,TModel>) |
GetOutputSchema(SchemaShape) |
Pour l’apprentissage IEstimator<TTransformer> de la régression logistique à l’aide d’une méthode de dégradé stochastique parallèle. (Hérité de TrainerEstimatorBase<TTransformer,TModel>) |
Méthodes d’extension
AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment) |
Ajoutez un « point de contrôle de mise en cache » à la chaîne d’estimateur. Cela garantit que les estimateurs en aval seront entraînés par rapport aux données mises en cache. Il est utile d’avoir un point de contrôle de mise en cache avant les formateurs qui prennent plusieurs passes de données. |
WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>) |
Étant donné un estimateur, retournez un objet de création de package de restrictions qui appellera un délégué une fois Fit(IDataView) appelé. Il est souvent important qu’un estimateur retourne des informations sur ce qui était adapté, c’est pourquoi la Fit(IDataView) méthode retourne un objet spécifiquement typé, plutôt que simplement un général ITransformer. Toutefois, en même temps, IEstimator<TTransformer> sont souvent formés en pipelines avec de nombreux objets. Nous pouvons donc avoir besoin de créer une chaîne d’estimateurs par EstimatorChain<TLastTransformer> le biais de laquelle l’estimateur pour lequel nous voulons obtenir le transformateur est enterré quelque part dans cette chaîne. Pour ce scénario, nous pouvons par le biais de cette méthode attacher un délégué qui sera appelé une fois l’ajustement appelé. |