SgdNonCalibratedTrainer Classe
Definição
Importante
Algumas informações se referem a produtos de pré-lançamento que podem ser substancialmente modificados antes do lançamento. A Microsoft não oferece garantias, expressas ou implícitas, das informações aqui fornecidas.
A IEstimator<TTransformer> regressão logística de treinamento usando um método de gradiente estocástico paralelo.
public sealed class SgdNonCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Trainers.LinearBinaryModelParameters>
type SgdNonCalibratedTrainer = class
inherit SgdBinaryTrainerBase<LinearBinaryModelParameters>
Public NotInheritable Class SgdNonCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of LinearBinaryModelParameters)
- Herança
-
LinearTrainerBase<BinaryPredictionTransformer<TModel>,TModel>SgdNonCalibratedTrainer
Comentários
Para criar esse treinador, use SgdNonCalibrated ou SgdNonCalibrated(Options).
Colunas de entrada e saída
Os dados da coluna de rótulo de entrada devem ser Boolean. Os dados da coluna de recursos de entrada devem ser um vetor de tamanho conhecido de Single. Este treinador gera as seguintes colunas:
Nome da Coluna de Saída | Tipo de coluna | Descrição |
---|---|---|
Score |
Single | A pontuação não associada calculada pelo modelo. |
PredictedLabel |
Boolean | O rótulo previsto com base no sinal da pontuação. Uma pontuação negativa é mapeada para false e uma pontuação positiva é mapeada para true . |
Características do Treinador
Ferramenta de machine learning | Classificação binária |
A normalização é necessária? | Sim |
O cache é necessário? | No |
NuGet necessário além de Microsoft.ML | Nenhum |
Exportável para ONNX | Sim |
Detalhes do algoritmo de treinamento
O SGD (Descendente de Gradiente Estocástico) é um dos procedimentos populares de otimização estocástica que podem ser integrados a várias tarefas de machine learning para obter desempenho de última geração. Este treinador implementa o Hogwild Stochastic Gradient Descent para classificação binária que dá suporte a vários threadings sem nenhum bloqueio. Se o problema de otimização associado for esparso, o Hogwild Stochastic Gradient Descent atingirá uma taxa quase ideal de convergência. Para obter mais detalhes sobre o Hogwild Stochastic Gradient Descent pode ser encontrado aqui.
Verifique a seção Consulte Também para obter links para exemplos de uso.
Campos
FeatureColumn |
A coluna de recursos que o treinador espera. (Herdado de TrainerEstimatorBase<TTransformer,TModel>) |
LabelColumn |
A coluna de rótulo que o treinador espera. Pode ser |
WeightColumn |
A coluna de peso que o treinador espera. Pode ser |
Propriedades
Info |
A IEstimator<TTransformer> regressão logística de treinamento usando um método de gradiente estocástico paralelo. (Herdado de SgdBinaryTrainerBase<TModel>) |
Métodos
Fit(IDataView, LinearModelParameters) |
Continua o treinamento de um usando um SdcaLogisticRegressionBinaryTrainer já treinado |
Fit(IDataView) |
Treina e retorna um ITransformer. (Herdado de TrainerEstimatorBase<TTransformer,TModel>) |
GetOutputSchema(SchemaShape) |
A IEstimator<TTransformer> regressão logística de treinamento usando um método de gradiente estocástico paralelo. (Herdado de TrainerEstimatorBase<TTransformer,TModel>) |
Métodos de Extensão
AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment) |
Acrescente um "ponto de verificação de cache" à cadeia de estimativas. Isso garantirá que os estimadores downstream serão treinados em relação aos dados armazenados em cache. É útil ter um ponto de verificação de cache antes dos treinadores que fazem várias passagens de dados. |
WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>) |
Dado um estimador, retorne um objeto de encapsulamento que chamará um delegado uma vez Fit(IDataView) chamado. Geralmente, é importante que um estimador retorne informações sobre o que estava em forma, e é por isso que o Fit(IDataView) método retorna um objeto especificamente tipado, em vez de apenas um geral ITransformer. No entanto, ao mesmo tempo, IEstimator<TTransformer> muitas vezes são formados em pipelines com muitos objetos, portanto, talvez seja necessário construir uma cadeia de estimadores por meio EstimatorChain<TLastTransformer> de onde o estimador para o qual queremos que o transformador seja enterrado em algum lugar nesta cadeia. Para esse cenário, podemos por meio desse método anexar um delegado que será chamado quando fit for chamado. |