Partager via


KnownStochasticOptimizer enum

Valeurs connues de StochasticOptimizer que le service accepte.

Champs

Adam

Adam est un algorithme qui optimise les fonctions d’objectif stochastique en fonction des estimations adaptatives des moments

Adamw

AdamW est une variante de l’optimiseur Adam qui a une implémentation améliorée de la dégradation du poids.

None

Aucun optimiseur n’est sélectionné.

Sgd

Optimiseur de descente de dégradé stochastique.