KnownStochasticOptimizer enum
Valeurs connues de StochasticOptimizer que le service accepte.
Champs
| Adam | Adam est un algorithme qui optimise les fonctions d’objectif stochastique en fonction des estimations adaptatives des moments |
| Adamw | AdamW est une variante de l’optimiseur Adam qui a une implémentation améliorée de la dégradation du poids. |
| None | Aucun optimiseur n’est sélectionné. |
| Sgd | Optimiseur de descente de dégradé stochastique. |