Condividi tramite


microsoftml.sgd_optimizer: discesa stocastica del gradiente

Utilizzo

microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
    momentum: numbers.Real = None, nag: bool = None,
    weight_decay: numbers.Real = None,
    l_rate_red_ratio: numbers.Real = None,
    l_rate_red_freq: numbers.Real = None,
    l_rate_red_error_ratio: numbers.Real = None)

Descrizione

Ottimizzatore della discesa stocastica del gradiente.

Argomenti

learning_rate

Frequenza di apprendimento (impostazioni).

momentum

Termine di momentum (impostazioni).

nag

Usare la sfumatura accelerata di Nesterov (impostazioni).

weight_decay

Decadimento del peso (impostazioni).

l_rate_red_ratio

Rapporto di riduzione della frequenza di apprendimento (impostazioni).

l_rate_red_freq

Rapporto di riduzione della frequenza di apprendimento (impostazioni).

l_rate_red_error_ratio

Criterio di riduzione degli errori relativi per la riduzione della frequenza di apprendimento (impostazioni).

Vedere anche

adadelta_optimizer