SgdCalibratedTrainer 类

定义

用于 IEstimator<TTransformer> 使用并行随机渐变方法训练逻辑回归。 训练的模型经过 校准 ,可以通过将线性函数的输出值馈送给 a PlattCalibrator来生成概率。

public sealed class SgdCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Calibrators.CalibratedModelParametersBase<Microsoft.ML.Trainers.LinearBinaryModelParameters,Microsoft.ML.Calibrators.PlattCalibrator>>
type SgdCalibratedTrainer = class
    inherit SgdBinaryTrainerBase<CalibratedModelParametersBase<LinearBinaryModelParameters, PlattCalibrator>>
Public NotInheritable Class SgdCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of CalibratedModelParametersBase(Of LinearBinaryModelParameters, PlattCalibrator))
继承

注解

若要创建此训练器,请使用 (选项) 的 SgdCalibrated 或 SgdCalibrated

输入和输出列

输入标签列数据必须为 Boolean。 输入特征列数据必须是已知大小的向量 Single

该训练程序输出以下列:

输出列名称 列名称 说明
Score Single 模型计算的未绑定分数。
PredictedLabel Boolean 预测的标签,基于分数符号。 负分数映射到 false,正分数映射到 true
Probability Single 通过校准具有 true 作为标签的分数来计算的概率。 概率值在 [0, 1] 范围内。

训练器特征

机器学习任务 二元分类
是否需要规范化?
是否需要缓存?
除 Microsoft.ML 以外,还需要 NuGet
可导出到 ONNX

训练算法详细信息

随机梯度下降 () 是一种流行的随机优化过程,可以集成到多个机器学习任务中,以实现最先进的性能。 此训练器为二元分类实现 Hogwild 随机梯度下降,该分类支持多线程处理,无需任何锁定。 如果关联的优化问题稀疏,Hogwild 随机梯度下降可实现接近最佳收敛率。 有关霍格维尔德随机梯度下降的更多详细信息,可 在此处找到。

有关用法示例的链接,请查看“另请参阅”部分。

字段

FeatureColumn

训练器期望的功能列。

(继承自 TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

训练器期望的标签列。 可以 null,指示标签不用于训练。

(继承自 TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

训练器期望的权重列。 可以 null,指示权重不用于训练。

(继承自 TrainerEstimatorBase<TTransformer,TModel>)

属性

Info

用于 IEstimator<TTransformer> 使用并行随机渐变方法训练逻辑回归。 训练的模型经过 校准 ,可以通过将线性函数的输出值馈送给 a PlattCalibrator来生成概率。

(继承自 SgdBinaryTrainerBase<TModel>)

方法

Fit(IDataView, LinearModelParameters)

继续使用已训练modelParametersSdcaLogisticRegressionBinaryTrainer训练并返回 aMicrosoft.ML.Data.BinaryPredictionTransformer

(继承自 SgdBinaryTrainerBase<TModel>)
Fit(IDataView)

火车并返回一个 ITransformer

(继承自 TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

用于 IEstimator<TTransformer> 使用并行随机渐变方法训练逻辑回归。 训练的模型经过 校准 ,可以通过将线性函数的输出值馈送给 a PlattCalibrator来生成概率。

(继承自 TrainerEstimatorBase<TTransformer,TModel>)

扩展方法

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

将“缓存检查点”追加到估算器链。 这将确保根据缓存的数据训练下游估算器。 在执行多个数据传递的训练器之前,拥有缓存检查点会很有帮助。

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

给定估算器后,返回一个包装对象,该对象将调用委托一次 Fit(IDataView) 。 估算器通常必须返回有关适合的内容的信息,这就是为什么 Fit(IDataView) 该方法返回特定类型化对象的原因,而不仅仅是常规 ITransformer对象。 但是,同时, IEstimator<TTransformer> 通常形成为包含许多对象的管道,因此,我们可能需要通过 EstimatorChain<TLastTransformer> 估算器链生成一个估算器链,以便将转换器埋在此链中的某个位置。 对于该方案,我们可以通过此方法附加一个委托,该委托将在调用拟合后调用。

适用于

另请参阅