microsoftml.sgd_optimizer : descente de gradient stochastique
Usage
microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
momentum: numbers.Real = None, nag: bool = None,
weight_decay: numbers.Real = None,
l_rate_red_ratio: numbers.Real = None,
l_rate_red_freq: numbers.Real = None,
l_rate_red_error_ratio: numbers.Real = None)
Description
Optimiseur de descente de gradient stochastique.
Arguments
learning_rate
Taux d'apprentissage (paramètres).
momentum
Dynamique (paramètres).
nag
Utilisez le gradient accéléré de Nesterov (paramètres).
weight_decay
Décroissance de la pondération (paramètres).
l_rate_red_ratio
Ratio de réduction du taux d'apprentissage (paramètres).
l_rate_red_freq
Ratio de réduction du taux d'apprentissage (paramètres).
l_rate_red_error_ratio
Critère de réduction de l'erreur relative pour la réduction du taux d'apprentissage (paramètres).
Voir aussi
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : pendant toute l’année 2024, nous allons éliminer progressivement Problèmes GitHub comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, voir :Soumettre et afficher des commentaires pour