Freigeben über


KnownStochasticOptimizer enum

Bekannte Werte von StochasticOptimizer , die der Dienst akzeptiert.

Felder

Adam

Adam ist Algorithmus, der stochastische objektive Funktionen basierend auf adaptiven Schätzungen von Momenten optimiert

Adamw

AdamW ist eine Variante des Optimierrs Adam, die eine verbesserte Implementierung von Gewichtszerfall hat.

None

Kein Optimierer ausgewählt.

Sgd

Stochastischer Gradientenabstiegsoptimierer.