KnownStochasticOptimizer enum
Bekannte Werte von StochasticOptimizer , die der Dienst akzeptiert.
Felder
Adam | Adam ist Algorithmus, der stochastische objektive Funktionen basierend auf adaptiven Schätzungen von Momenten optimiert |
Adamw | AdamW ist eine Variante des Optimierrs Adam, die eine verbesserte Implementierung von Gewichtszerfall hat. |
None | Kein Optimierer ausgewählt. |
Sgd | Stochastischer Gradientenabstiegsoptimierer. |