Share via


DML_ACTIVATION_THRESHOLDED_RELU_OPERATOR_DESC-Struktur (directml.h)

Führt eine ReLU-Aktivierungsfunktion (Rectified Linear Unit) mit Schwellenwerten für jedes Element in InputTensor aus, und platziert das Ergebnis in das entsprechende Element von OutputTensor.

f(x) = x, if x > Alpha
       0, otherwise

Dieser Operator unterstützt die direkte Ausführung, was bedeutet, dass der Ausgabe tensor während der Bindung den InputTensor-Alias verwenden darf.

Syntax

struct DML_ACTIVATION_THRESHOLDED_RELU_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *OutputTensor;
  FLOAT                 Alpha;
};

Member

InputTensor

Typ: const DML_TENSOR_DESC*

Der Eingabe tensor, aus dem gelesen werden soll.

OutputTensor

Typ: const DML_TENSOR_DESC*

Der Ausgabe tensor, in den die Ergebnisse geschrieben werden sollen.

Alpha

Typ: FLOAT

Der Schwellenwert für die Funktion. Ein typischer Standardwert für diesen Wert ist 1,0.

Verfügbarkeit

Dieser Operator wurde in DML_FEATURE_LEVEL_1_0eingeführt.

Tensoreinschränkungen

InputTensor und OutputTensor müssen denselben DataType, DimensionCount und Sizes aufweisen.

Tensorunterstützung

DML_FEATURE_LEVEL_3_0 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 1 bis 8 FLOAT32, FLOAT16
OutputTensor Ausgabe 1 bis 8 FLOAT32, FLOAT16

DML_FEATURE_LEVEL_2_0 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 4 bis 5 FLOAT32, FLOAT16
OutputTensor Ausgabe 4 bis 5 FLOAT32, FLOAT16

DML_FEATURE_LEVEL_1_0 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 4 FLOAT32, FLOAT16
OutputTensor Ausgabe 4 FLOAT32, FLOAT16

Anforderungen

   
Kopfzeile directml.h

Weitere Informationen

DML_ACTIVATION_SOFTMAX_OPERATOR_DESC