Share via


DML_ELEMENT_WISE_ADD_OPERATOR_DESC-Struktur (directml.h)

Fügt jedes Element in ATensor dem entsprechenden Element in BTensor hinzu, und platziert das Ergebnis in das entsprechende Element von OutputTensor.

f(a, b) = a + b

Dieser Operator unterstützt die direkte Ausführung, was bedeutet, dass OutputTensor während der Bindung mindestens einen der Eingabe tensors aliasen darf.

Syntax

struct DML_ELEMENT_WISE_ADD_OPERATOR_DESC {
  const DML_TENSOR_DESC *ATensor;
  const DML_TENSOR_DESC *BTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

Member

ATensor

Typ: const DML_TENSOR_DESC*

Ein Tensor, der die linksseitigen Eingaben enthält.

BTensor

Typ: const DML_TENSOR_DESC*

Ein Tensor, der die rechten Seiteneingaben enthält.

OutputTensor

Typ: const DML_TENSOR_DESC*

Der Ausgabe tensor, in den die Ergebnisse geschrieben werden sollen.

Hinweise

Eine neuere Version dieses Operators, DML_ELEMENT_WISE_ADD1_OPERATOR_DESC, wurde in DML_FEATURE_LEVEL_2_0eingeführt.

Verfügbarkeit

Dieser Operator wurde in DML_FEATURE_LEVEL_1_0eingeführt.

Tensoreinschränkungen

ATensor, BTensor und OutputTensor müssen die gleichen DataType, DimensionCount und Sizes aufweisen.

Tensorunterstützung

DML_FEATURE_LEVEL_5_1 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
ATensor Eingabe 1 bis 8 FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
BTensor Eingabe 1 bis 8 FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
OutputTensor Ausgabe 1 bis 8 FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_4_1 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
ATensor Eingabe 1 bis 8 FLOAT32, FLOAT16, INT64, INT32, UINT64, UINT32
BTensor Eingabe 1 bis 8 FLOAT32, FLOAT16, INT64, INT32, UINT64, UINT32
OutputTensor Ausgabe 1 bis 8 FLOAT32, FLOAT16, INT64, INT32, UINT64, UINT32

DML_FEATURE_LEVEL_3_0 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
ATensor Eingabe 1 bis 8 FLOAT32, FLOAT16, INT32, UINT32
BTensor Eingabe 1 bis 8 FLOAT32, FLOAT16, INT32, UINT32
OutputTensor Ausgabe 1 bis 8 FLOAT32, FLOAT16, INT32, UINT32

DML_FEATURE_LEVEL_2_1 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
ATensor Eingabe 4 bis 5 FLOAT32, FLOAT16, INT32, UINT32
BTensor Eingabe 4 bis 5 FLOAT32, FLOAT16, INT32, UINT32
OutputTensor Ausgabe 4 bis 5 FLOAT32, FLOAT16, INT32, UINT32

DML_FEATURE_LEVEL_1_0 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
ATensor Eingabe 4 bis 5 FLOAT32, FLOAT16
BTensor Eingabe 4 bis 5 FLOAT32, FLOAT16
OutputTensor Ausgabe 4 bis 5 FLOAT32, FLOAT16

Anforderungen

   
Kopfzeile directml.h

Weitere Informationen

DML_ELEMENT_WISE_ADD1_OPERATOR_DESC