Поделиться через


microsoftml.sgd_optimizer: стохастический градиентный спуск

Использование

microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
    momentum: numbers.Real = None, nag: bool = None,
    weight_decay: numbers.Real = None,
    l_rate_red_ratio: numbers.Real = None,
    l_rate_red_freq: numbers.Real = None,
    l_rate_red_error_ratio: numbers.Real = None)

Описание

Оптимизатор стохастического градиентного спуска.

Аргументы

learning_rate;

Скорость обучения (параметры).

momentum

Время импульса (параметры).

nag

Используйте ускоренный градиент Нестерова (параметры).

weight_decay

Уменьшение веса (параметры).

l_rate_red_ratio

Коэффициент снижения скорости обучения (параметры).

l_rate_red_freq

Коэффициент снижения скорости обучения (параметры).

l_rate_red_error_ratio

Относительный критерий сокращения ошибок для снижения скорости обучения (параметры).

См. также

adadelta_optimizer