microsoftml.sgd_optimizer : descente de gradient stochastique
Usage
microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
momentum: numbers.Real = None, nag: bool = None,
weight_decay: numbers.Real = None,
l_rate_red_ratio: numbers.Real = None,
l_rate_red_freq: numbers.Real = None,
l_rate_red_error_ratio: numbers.Real = None)
Description
Optimiseur de descente de gradient stochastique.
Arguments
learning_rate
Taux d'apprentissage (paramètres).
momentum
Dynamique (paramètres).
nag
Utilisez le gradient accéléré de Nesterov (paramètres).
weight_decay
Décroissance de la pondération (paramètres).
l_rate_red_ratio
Ratio de réduction du taux d'apprentissage (paramètres).
l_rate_red_freq
Ratio de réduction du taux d'apprentissage (paramètres).
l_rate_red_error_ratio
Critère de réduction de l'erreur relative pour la réduction du taux d'apprentissage (paramètres).
Voir aussi
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour