Delen via


StochasticOptimizer type

Definieert waarden voor StochasticOptimizer.
KnownStochasticOptimizer kan door elkaar worden gebruikt met StochasticOptimizer, bevat dit enum de bekende waarden die de service ondersteunt.

Bekende waarden die door de service worden ondersteund

Geen: Geen optimalisatie geselecteerd.
Sgd: Stochastic Gradient Descent-optimalisatie.
Adam: Adam is algoritme dat stochastische objectieve functies optimaliseert op basis van adaptieve schattingen van momenten
Adamw: AdamW is een variant van de optimizer Adam die een verbeterde implementatie van gewichtsverval heeft.

type StochasticOptimizer = string