Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Calcule les gradients de backpropagation pour une unité linéaire rectifiée (ReLU). Cet opérateur effectue le calcul par élément suivant.
X = InputTensor
dY = InputGradientTensor
OutputGradientTensor = (X > 0 ? dY : 0)
L’opérateur de passage avant correspondant est DML_ACTIVATION_RELU_OPERATOR_DESC.
Syntaxe
struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
const DML_TENSOR_DESC *InputTensor;
const DML_TENSOR_DESC *InputGradientTensor;
const DML_TENSOR_DESC *OutputGradientTensor;
};
Membres
InputTensor
Type : const DML_TENSOR_DESC*
Tenseur d’entrée (fonctionnalité). Il s’agit généralement de la même entrée que celle fournie lors de la passe avant (voir DML_ACTIVATION_RELU_OPERATOR_DESC).
InputGradientTensor
Type : const DML_TENSOR_DESC*
Tenseur de dégradé entrant. Cela est généralement obtenu à partir de la sortie de backpropagation d’une couche précédente. Les tailles et le type de données de ce tenseur doivent correspondre exactement à ceux de l’inputTensor.
OutputGradientTensor
Configuration requise
Condition requise | Valeur |
---|---|
Client minimal pris en charge | Windows 10 Build 20348 |
Serveur minimal pris en charge | Windows 10 Build 20348 |
En-tête | directml.h |