Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Verwendung
microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
momentum: numbers.Real = None, nag: bool = None,
weight_decay: numbers.Real = None,
l_rate_red_ratio: numbers.Real = None,
l_rate_red_freq: numbers.Real = None,
l_rate_red_error_ratio: numbers.Real = None)
BESCHREIBUNG
Optimierer für stochastischen Gradientenabstieg.
Argumente
learning_rate
Lernrate (Einstellungen).
momentum
Term für Dynamik (Einstellungen).
nag
Verwendet den beschleunigten Gradienten von Nesterow (Einstellungen).
weight_decay
Gewichtungsverfall (Einstellungen).
l_rate_red_ratio
Verhältnis zwischen Lernrate und Reduktion (Einstellungen).
l_rate_red_freq
Verhältnis zwischen Lernrate und Reduktion (Einstellungen).
l_rate_red_error_ratio
Relatives Fehlerreduzierungskriterium für die Reduzierung der Lernrate (Einstellungen).