LdSvmTrainer Classe
Définition
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
IEstimator<TTransformer> Pour prédire une cible à l’aide d’un modèle de classification binaire non linéaire formé avec une machine virtuelle SVM deep locale.
public sealed class LdSvmTrainer : Microsoft.ML.Trainers.TrainerEstimatorBase<Microsoft.ML.Data.BinaryPredictionTransformer<Microsoft.ML.Trainers.LdSvmModelParameters>,Microsoft.ML.Trainers.LdSvmModelParameters>
type LdSvmTrainer = class
inherit TrainerEstimatorBase<BinaryPredictionTransformer<LdSvmModelParameters>, LdSvmModelParameters>
Public NotInheritable Class LdSvmTrainer
Inherits TrainerEstimatorBase(Of BinaryPredictionTransformer(Of LdSvmModelParameters), LdSvmModelParameters)
- Héritage
Remarques
Pour créer ce formateur, utilisez LdSvm ou LdSvm(Options).
Colonnes d’entrée et de sortie
Les données de la colonne d’étiquettes d’entrée doivent être Boolean. Les données de colonne des caractéristiques d’entrée doivent être un vecteur de taille connue de Single. Ce formateur génère les colonnes suivantes :
Nom de colonne de sortie | Type de colonne | Description |
---|---|---|
Score |
Single | Score non lié calculé par le modèle. |
PredictedLabel |
Boolean | Étiquette prédite, en fonction du signe du score. Un score négatif est mappé à false , tandis qu’un score positif est mappé à true . |
Caractéristiques de l’entraîneur
Tâche d’apprentissage automatique | Classification binaire |
La normalisation est-elle nécessaire ? | Oui |
La mise en cache est-elle requise ? | Non |
NuGet requis en plus de Microsoft.ML | Aucun |
Exportable vers ONNX | Non |
Détails de l’algorithme d’apprentissage
La machine virtuelle SVM profonde locale (LD-SVM) est une généralisation de l’apprentissage multi noyau localisé pour la machine virtuelle SVM non linéaire. Plusieurs méthodes de noyau apprennent un noyau différent, et par conséquent un classifieur différent, pour chaque point de l’espace de fonctionnalité. Le coût du temps de prédiction pour plusieurs méthodes de noyau peut être prohibitif pour les jeux d’entraînement volumineux, car il est proportionnel au nombre de vecteurs de prise en charge, et ceux-ci augmentent de façon linéaire avec la taille du jeu d’entraînement. LD-SVM réduit le coût de prédiction en apprenant une fonctionnalité locale basée sur une arborescence incorporée qui est à haute dimension et éparse, encodant efficacement les non-linéarités. À l’aide de LD-SVM, le coût de prédiction augmente logarithmiquement avec la taille du jeu d’entraînement, plutôt que linéairement, avec une perte tolérable de précision de classification.
Local Deep SVM est une implémentation de l’algorithme décrit dans C. Jose, P. Goyal, P. Aggrwal et M. Varma, Local Deep Kernel Learning pour la prédiction SVM non linéaire efficace, ICML, 2013.
Consultez la section Voir aussi pour obtenir des liens vers des exemples d’utilisation.
Champs
FeatureColumn |
Colonne de caractéristique attendue par l’entraîneur. (Hérité de TrainerEstimatorBase<TTransformer,TModel>) |
LabelColumn |
Colonne d’étiquette attendue par l’entraîneur. Peut être |
WeightColumn |
Colonne de poids attendue par l’entraîneur. Peut être |
Propriétés
Info |
IEstimator<TTransformer> Pour prédire une cible à l’aide d’un modèle de classification binaire non linéaire formé avec une machine virtuelle SVM deep locale. |
Méthodes
Fit(IDataView) |
Effectue l’apprentissage et retourne un ITransformer. (Hérité de TrainerEstimatorBase<TTransformer,TModel>) |
GetOutputSchema(SchemaShape) |
IEstimator<TTransformer> Pour prédire une cible à l’aide d’un modèle de classification binaire non linéaire formé avec une machine virtuelle SVM deep locale. (Hérité de TrainerEstimatorBase<TTransformer,TModel>) |
Méthodes d’extension
AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment) |
Ajoutez un « point de contrôle de mise en cache » à la chaîne d’estimateur. Cela garantit que les estimateurs en aval seront entraînés par rapport aux données mises en cache. Il est utile d’avoir un point de contrôle de mise en cache avant les formateurs qui prennent plusieurs passes de données. |
WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>) |
Étant donné un estimateur, retournez un objet de création de package de restrictions qui appellera un délégué une fois Fit(IDataView) appelé. Il est souvent important qu’un estimateur retourne des informations sur ce qui était adapté, c’est pourquoi la Fit(IDataView) méthode retourne un objet spécifiquement typé, plutôt que simplement un général ITransformer. Toutefois, en même temps, IEstimator<TTransformer> sont souvent formés en pipelines avec de nombreux objets. Nous pouvons donc avoir besoin de créer une chaîne d’estimateurs par EstimatorChain<TLastTransformer> le biais de laquelle l’estimateur pour lequel nous voulons obtenir le transformateur est enterré quelque part dans cette chaîne. Pour ce scénario, nous pouvons par le biais de cette méthode attacher un délégué qui sera appelé une fois l’ajustement appelé. |