Share via


DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC-Struktur (directml.h)

Berechnet Backpropagationsverläufe für eine rektifizierte lineare Einheit (ReLU). Dieser Operator führt die folgende Elementberechnung aus.

X = InputTensor
dY = InputGradientTensor

OutputGradientTensor = (X > 0 ? dY : 0)

Der entsprechende Forward-Pass-Operator ist DML_ACTIVATION_RELU_OPERATOR_DESC.

Syntax

struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *InputGradientTensor;
  const DML_TENSOR_DESC *OutputGradientTensor;
};

Member

InputTensor

Typ: const DML_TENSOR_DESC*

Der Eingabe-Tensor (Feature). Dies ist in der Regel die gleiche Eingabe, die während des Vorwärtsdurchlaufs bereitgestellt wurde (siehe DML_ACTIVATION_RELU_OPERATOR_DESC).

InputGradientTensor

Typ: const DML_TENSOR_DESC*

Der eingehende Gradienten-Tensor. Dies wird in der Regel aus der Ausgabe der Backpropagation einer vorherigen Ebene abgerufen. Die Größen und der Datentyp dieses Tensors müssen genau mit denen des InputTensor übereinstimmen.

OutputGradientTensor

Anforderungen

Anforderung Wert
Unterstützte Mindestversion (Client) Windows 10 Build 20348
Unterstützte Mindestversion (Server) Windows 10 Build 20348
Kopfzeile directml.h

Weitere Informationen

DML_ACTIVATION_RELU_OPERATOR_DESC