Partager via


microsoftml.sgd_optimizer : descente de gradient stochastique

Usage

microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
    momentum: numbers.Real = None, nag: bool = None,
    weight_decay: numbers.Real = None,
    l_rate_red_ratio: numbers.Real = None,
    l_rate_red_freq: numbers.Real = None,
    l_rate_red_error_ratio: numbers.Real = None)

Description

Optimiseur de descente de gradient stochastique.

Arguments

learning_rate

Taux d'apprentissage (paramètres).

momentum

Dynamique (paramètres).

nag

Utilisez le gradient accéléré de Nesterov (paramètres).

weight_decay

Décroissance de la pondération (paramètres).

l_rate_red_ratio

Ratio de réduction du taux d'apprentissage (paramètres).

l_rate_red_freq

Ratio de réduction du taux d'apprentissage (paramètres).

l_rate_red_error_ratio

Critère de réduction de l'erreur relative pour la réduction du taux d'apprentissage (paramètres).

Voir aussi

adadelta_optimizer