Share via


microsoftml.sgd_optimizer: Stochastischer Gradientenabstieg

Verwendung

microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
    momentum: numbers.Real = None, nag: bool = None,
    weight_decay: numbers.Real = None,
    l_rate_red_ratio: numbers.Real = None,
    l_rate_red_freq: numbers.Real = None,
    l_rate_red_error_ratio: numbers.Real = None)

BESCHREIBUNG

Optimierer für stochastischen Gradientenabstieg.

Argumente

learning_rate

Lernrate (Einstellungen).

momentum

Term für Dynamik (Einstellungen).

nag

Verwendet den beschleunigten Gradienten von Nesterow (Einstellungen).

weight_decay

Gewichtungsverfall (Einstellungen).

l_rate_red_ratio

Verhältnis zwischen Lernrate und Reduktion (Einstellungen).

l_rate_red_freq

Verhältnis zwischen Lernrate und Reduktion (Einstellungen).

l_rate_red_error_ratio

Relatives Fehlerreduzierungskriterium für die Reduzierung der Lernrate (Einstellungen).

Siehe auch

adadelta_optimizer