Condividi tramite


LdSvmTrainer Classe

Definizione

Oggetto IEstimator<TTransformer> per stimare una destinazione usando un modello di classificazione binaria non lineare sottoposto a training con SVM deep locale.

public sealed class LdSvmTrainer : Microsoft.ML.Trainers.TrainerEstimatorBase<Microsoft.ML.Data.BinaryPredictionTransformer<Microsoft.ML.Trainers.LdSvmModelParameters>,Microsoft.ML.Trainers.LdSvmModelParameters>
type LdSvmTrainer = class
    inherit TrainerEstimatorBase<BinaryPredictionTransformer<LdSvmModelParameters>, LdSvmModelParameters>
Public NotInheritable Class LdSvmTrainer
Inherits TrainerEstimatorBase(Of BinaryPredictionTransformer(Of LdSvmModelParameters), LdSvmModelParameters)
Ereditarietà

Commenti

Per creare questo formatore, usare LdSvm o LdSvm(Options).

Colonne di input e output

I dati della colonna dell'etichetta di input devono essere Boolean. I dati delle colonne delle funzionalità di input devono essere un vettore di dimensioni note di Single. Questo formatore restituisce le colonne seguenti:

Nome colonna di output Tipo di colonna Descrizione
Score Single Punteggio non associato calcolato dal modello.
PredictedLabel Boolean L'etichetta stimata, in base al segno del punteggio. Un punteggio negativo esegue il mapping a false e un punteggio negativo esegue il mapping a true.

Caratteristiche del formatore

Attività di Machine Learning Classificazione binaria
La normalizzazione è necessaria?
La memorizzazione nella cache è necessaria? No
NuGet richiesto oltre a Microsoft.ML Nessuno
Esportabile in ONNX No

Dettagli algoritmo di training

Local Deep SVM (LD-SVM) è una generalizzazione di Apprendimento più kernel localizzato per SVM non lineare. Più metodi del kernel imparano un kernel diverso e quindi un classificatore diverso, per ogni punto nello spazio delle funzionalità. Il costo del tempo di stima per più metodi kernel può essere eccessivamente costoso per set di training di grandi dimensioni perché è proporzionale al numero di vettori di supporto e questi aumentano in modo lineare con le dimensioni del set di training. LD-SVM riduce i costi di stima apprendendo l'incorporamento di funzionalità locali basate su albero che è un'elevata dimensione e sparse, codificando in modo efficiente le non linearità. Usando LD-SVM, il costo della stima aumenta in modo logaritmico con le dimensioni del set di training, anziché linearmente, con una perdita tollerabile nell'accuratezza della classificazione.

Local Deep SVM è un'implementazione dell'algoritmo descritto in C. Jose, P. Goyal, P. Aggrwal e M. Varma, Deep Kernel Learning locale per una stima SVM non lineare efficiente, ICML, 2013.

Vedere la sezione Vedere anche i collegamenti agli esempi di utilizzo.

Campi

FeatureColumn

Colonna di funzionalità prevista dal formatore.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Colonna dell'etichetta prevista dal formatore. Può essere null, che indica che l'etichetta non viene usata per il training.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Colonna di peso prevista dal formatore. Può essere null, che indica che il peso non viene usato per il training.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)

Proprietà

Info

Oggetto IEstimator<TTransformer> per stimare una destinazione usando un modello di classificazione binaria non lineare sottoposto a training con SVM deep locale.

Metodi

Fit(IDataView)

Esegue il training e restituisce un oggetto ITransformer.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

Oggetto IEstimator<TTransformer> per stimare una destinazione usando un modello di classificazione binaria non lineare sottoposto a training con SVM deep locale.

(Ereditato da TrainerEstimatorBase<TTransformer,TModel>)

Metodi di estensione

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Aggiungere un "checkpoint di memorizzazione nella cache" alla catena di stima. Ciò garantisce che gli estimatori downstream vengano sottoposti a training in base ai dati memorizzati nella cache. È utile avere un checkpoint di memorizzazione nella cache prima che i formatori eseseguono più passaggi di dati.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Dato un estimator, restituire un oggetto wrapping che chiamerà un delegato una volta Fit(IDataView) chiamato. È spesso importante che uno strumento di stima restituisca informazioni sull'adattamento, motivo per cui il Fit(IDataView) metodo restituisce un oggetto tipizzato in modo specifico, anziché solo un oggetto generale ITransformer. Tuttavia, allo stesso tempo, IEstimator<TTransformer> vengono spesso formati in pipeline con molti oggetti, quindi potrebbe essere necessario creare una catena di estimatori tramite EstimatorChain<TLastTransformer> dove lo strumento di stima per il quale si vuole ottenere il trasformatore è sepolto in una posizione in questa catena. Per questo scenario, è possibile collegare un delegato che verrà chiamato una volta chiamato fit.

Si applica a

Vedi anche