DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC-Struktur (directml.h)
Berechnet Backpropagationsverläufe für eine rektifizierte lineare Einheit (ReLU). Dieser Operator führt die folgende Elementberechnung aus.
X = InputTensor
dY = InputGradientTensor
OutputGradientTensor = (X > 0 ? dY : 0)
Der entsprechende Forward-Pass-Operator ist DML_ACTIVATION_RELU_OPERATOR_DESC.
Syntax
struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
const DML_TENSOR_DESC *InputTensor;
const DML_TENSOR_DESC *InputGradientTensor;
const DML_TENSOR_DESC *OutputGradientTensor;
};
Member
InputTensor
Typ: const DML_TENSOR_DESC*
Der Eingabe-Tensor (Feature). Dies ist in der Regel die gleiche Eingabe, die während des Vorwärtsdurchlaufs bereitgestellt wurde (siehe DML_ACTIVATION_RELU_OPERATOR_DESC).
InputGradientTensor
Typ: const DML_TENSOR_DESC*
Der eingehende Gradienten-Tensor. Dies wird in der Regel aus der Ausgabe der Backpropagation einer vorherigen Ebene abgerufen. Die Größen und der Datentyp dieses Tensors müssen genau mit denen des InputTensor übereinstimmen.
OutputGradientTensor
Anforderungen
Anforderung | Wert |
---|---|
Unterstützte Mindestversion (Client) | Windows 10 Build 20348 |
Unterstützte Mindestversion (Server) | Windows 10 Build 20348 |
Kopfzeile | directml.h |