Partager via


LdSvmTrainer Classe

Définition

IEstimator<TTransformer> Pour prédire une cible à l’aide d’un modèle de classification binaire non linéaire formé avec une machine virtuelle SVM deep locale.

public sealed class LdSvmTrainer : Microsoft.ML.Trainers.TrainerEstimatorBase<Microsoft.ML.Data.BinaryPredictionTransformer<Microsoft.ML.Trainers.LdSvmModelParameters>,Microsoft.ML.Trainers.LdSvmModelParameters>
type LdSvmTrainer = class
    inherit TrainerEstimatorBase<BinaryPredictionTransformer<LdSvmModelParameters>, LdSvmModelParameters>
Public NotInheritable Class LdSvmTrainer
Inherits TrainerEstimatorBase(Of BinaryPredictionTransformer(Of LdSvmModelParameters), LdSvmModelParameters)
Héritage

Remarques

Pour créer ce formateur, utilisez LdSvm ou LdSvm(Options).

Colonnes d’entrée et de sortie

Les données de la colonne d’étiquettes d’entrée doivent être Boolean. Les données de colonne des caractéristiques d’entrée doivent être un vecteur de taille connue de Single. Ce formateur génère les colonnes suivantes :

Nom de colonne de sortie Type de colonne Description
Score Single Score non lié calculé par le modèle.
PredictedLabel Boolean Étiquette prédite, en fonction du signe du score. Un score négatif est mappé à false, tandis qu’un score positif est mappé à true.

Caractéristiques de l’entraîneur

Tâche d’apprentissage automatique Classification binaire
La normalisation est-elle nécessaire ? Oui
La mise en cache est-elle requise ? Non
NuGet requis en plus de Microsoft.ML Aucun
Exportable vers ONNX Non

Détails de l’algorithme d’apprentissage

La machine virtuelle SVM profonde locale (LD-SVM) est une généralisation de l’apprentissage multi noyau localisé pour la machine virtuelle SVM non linéaire. Plusieurs méthodes de noyau apprennent un noyau différent, et par conséquent un classifieur différent, pour chaque point de l’espace de fonctionnalité. Le coût du temps de prédiction pour plusieurs méthodes de noyau peut être prohibitif pour les jeux d’entraînement volumineux, car il est proportionnel au nombre de vecteurs de prise en charge, et ceux-ci augmentent de façon linéaire avec la taille du jeu d’entraînement. LD-SVM réduit le coût de prédiction en apprenant une fonctionnalité locale basée sur une arborescence incorporée qui est à haute dimension et éparse, encodant efficacement les non-linéarités. À l’aide de LD-SVM, le coût de prédiction augmente logarithmiquement avec la taille du jeu d’entraînement, plutôt que linéairement, avec une perte tolérable de précision de classification.

Local Deep SVM est une implémentation de l’algorithme décrit dans C. Jose, P. Goyal, P. Aggrwal et M. Varma, Local Deep Kernel Learning pour la prédiction SVM non linéaire efficace, ICML, 2013.

Consultez la section Voir aussi pour obtenir des liens vers des exemples d’utilisation.

Champs

FeatureColumn

Colonne de caractéristique attendue par l’entraîneur.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Colonne d’étiquette attendue par l’entraîneur. Peut être null, ce qui indique que l’étiquette n’est pas utilisée pour l’entraînement.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Colonne de poids attendue par l’entraîneur. Peut être null, ce qui indique que le poids n’est pas utilisé pour l’entraînement.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)

Propriétés

Info

IEstimator<TTransformer> Pour prédire une cible à l’aide d’un modèle de classification binaire non linéaire formé avec une machine virtuelle SVM deep locale.

Méthodes

Fit(IDataView)

Effectue l’apprentissage et retourne un ITransformer.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

IEstimator<TTransformer> Pour prédire une cible à l’aide d’un modèle de classification binaire non linéaire formé avec une machine virtuelle SVM deep locale.

(Hérité de TrainerEstimatorBase<TTransformer,TModel>)

Méthodes d’extension

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Ajoutez un « point de contrôle de mise en cache » à la chaîne d’estimateur. Cela garantit que les estimateurs en aval seront entraînés par rapport aux données mises en cache. Il est utile d’avoir un point de contrôle de mise en cache avant les formateurs qui prennent plusieurs passes de données.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Étant donné un estimateur, retournez un objet de création de package de restrictions qui appellera un délégué une fois Fit(IDataView) appelé. Il est souvent important qu’un estimateur retourne des informations sur ce qui était adapté, c’est pourquoi la Fit(IDataView) méthode retourne un objet spécifiquement typé, plutôt que simplement un général ITransformer. Toutefois, en même temps, IEstimator<TTransformer> sont souvent formés en pipelines avec de nombreux objets. Nous pouvons donc avoir besoin de créer une chaîne d’estimateurs par EstimatorChain<TLastTransformer> le biais de laquelle l’estimateur pour lequel nous voulons obtenir le transformateur est enterré quelque part dans cette chaîne. Pour ce scénario, nous pouvons par le biais de cette méthode attacher un délégué qui sera appelé une fois l’ajustement appelé.

S’applique à

Voir aussi