microsoftml.sgd_optimizer: discesa stocastica del gradiente
Utilizzo
microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
momentum: numbers.Real = None, nag: bool = None,
weight_decay: numbers.Real = None,
l_rate_red_ratio: numbers.Real = None,
l_rate_red_freq: numbers.Real = None,
l_rate_red_error_ratio: numbers.Real = None)
Descrizione
Ottimizzatore della discesa stocastica del gradiente.
Argomenti
learning_rate
Frequenza di apprendimento (impostazioni).
momentum
Termine di momentum (impostazioni).
nag
Usare la sfumatura accelerata di Nesterov (impostazioni).
weight_decay
Decadimento del peso (impostazioni).
l_rate_red_ratio
Rapporto di riduzione della frequenza di apprendimento (impostazioni).
l_rate_red_freq
Rapporto di riduzione della frequenza di apprendimento (impostazioni).
l_rate_red_error_ratio
Criterio di riduzione degli errori relativi per la riduzione della frequenza di apprendimento (impostazioni).
Vedere anche
Commenti e suggerimenti
https://aka.ms/ContentUserFeedback.
Presto disponibile: Nel corso del 2024 verranno gradualmente disattivati i problemi di GitHub come meccanismo di feedback per il contenuto e ciò verrà sostituito con un nuovo sistema di feedback. Per altre informazioni, vedereInvia e visualizza il feedback per