Compartilhar via


microsoftml.sgd_optimizer: descendente de gradiente estocástico

Uso

microsoftml.sgd_optimizer(learning_rate: numbers.Real = None,
    momentum: numbers.Real = None, nag: bool = None,
    weight_decay: numbers.Real = None,
    l_rate_red_ratio: numbers.Real = None,
    l_rate_red_freq: numbers.Real = None,
    l_rate_red_error_ratio: numbers.Real = None)

Descrição

Otimizador descendente de gradiente estocástico.

Argumentos

learning_rate

Taxa de aprendizado (configurações).

momentum

Prazo do momentum (configurações).

nag

Use o gradiente acelerado do Nesterov (configurações).

weight_decay

Decaimento de peso (configurações).

l_rate_red_ratio

Índice de redução da taxa de aprendizado (configurações).

l_rate_red_freq

Índice de redução da taxa de aprendizado (configurações).

l_rate_red_error_ratio

Critério de redução de erro relativo para redução da taxa de aprendizado (configurações).

Confira também

adadelta_optimizer