microsoftml.sgd_optimizer: Stochastischer Gradientenabstieg
Verwendung
microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
momentum: numbers.Real = None, nag: bool = None,
weight_decay: numbers.Real = None,
l_rate_red_ratio: numbers.Real = None,
l_rate_red_freq: numbers.Real = None,
l_rate_red_error_ratio: numbers.Real = None)
BESCHREIBUNG
Optimierer für stochastischen Gradientenabstieg.
Argumente
learning_rate
Lernrate (Einstellungen).
momentum
Term für Dynamik (Einstellungen).
nag
Verwendet den beschleunigten Gradienten von Nesterow (Einstellungen).
weight_decay
Gewichtungsverfall (Einstellungen).
l_rate_red_ratio
Verhältnis zwischen Lernrate und Reduktion (Einstellungen).
l_rate_red_freq
Verhältnis zwischen Lernrate und Reduktion (Einstellungen).
l_rate_red_error_ratio
Relatives Fehlerreduzierungskriterium für die Reduzierung der Lernrate (Einstellungen).