Share via


DML_ELEMENT_WISE_DEQUANTIZE_LINEAR_OPERATOR_DESC-Struktur (directml.h)

Führt die folgende lineare Dequantisierungsfunktion für jedes Element in InputTensor in Bezug auf das entsprechende Element in ScaleTensor aus und ZeroPointTensorplatziert die Ergebnisse im entsprechenden Element von OutputTensor.

f(input, scale, zero_point) = (input - zero_point) * scale

Die Quantisierung ist ein gängiger Weg, um die Leistung auf Kosten der Genauigkeit zu steigern. Eine Gruppe von 8-Bit-int-Werten kann schneller berechnet werden als eine Gruppe von 32-Bit-Floatwerten. Beim Dequantisieren werden die codierten Daten zurück in ihre Domäne konvertiert.

Syntax

struct DML_ELEMENT_WISE_DEQUANTIZE_LINEAR_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *ScaleTensor;
  const DML_TENSOR_DESC *ZeroPointTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

Member

InputTensor

Typ: const DML_TENSOR_DESC*

Der Tensor, der die Eingaben enthält.

ScaleTensor

Typ: const DML_TENSOR_DESC*

Der Tensor, der die Skalierungen enthält.

ZeroPointTensor

Typ: const DML_TENSOR_DESC*

Der Tensor, der den Nullpunkt enthält, der für die Quantisierung verwendet wurde.

OutputTensor

Typ: const DML_TENSOR_DESC*

Der Ausgabe tensor, in den die Ergebnisse geschrieben werden sollen.

Verfügbarkeit

Dieser Operator wurde in DML_FEATURE_LEVEL_1_0eingeführt.

Tensoreinschränkungen

  • InputTensor, OutputTensor, ScaleTensor und ZeroPointTensor müssen über die gleichen DimensionCount und Sizes verfügen.
  • InputTensor und ZeroPointTensor müssen denselben DataType aufweisen.
  • OutputTensor und ScaleTensor müssen denselben DataType aufweisen.

Tensorunterstützung

DML_FEATURE_LEVEL_6_2 und höher

Tensor Variante Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 1 bis 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
ScaleTensor Eingabe 1 bis 8 FLOAT32, FLOAT16
ZeroPointTensor Optionale Eingabe 1 bis 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor Ausgabe 1 bis 8 FLOAT32, FLOAT16

DML_FEATURE_LEVEL_6_0 und höher

Tensor Variante Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 1 bis 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
ScaleTensor Eingabe 1 bis 8 FLOAT32, FLOAT16
ZeroPointTensor Eingabe 1 bis 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor Ausgabe 1 bis 8 FLOAT32, FLOAT16

DML_FEATURE_LEVEL_3_0 und höher

Tensor Variante Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 1 bis 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
ScaleTensor Eingabe 1 bis 8 FLOAT32
ZeroPointTensor Eingabe 1 bis 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor Ausgabe 1 bis 8 FLOAT32

DML_FEATURE_LEVEL_2_1 und höher

Tensor Variante Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 4 INT32, INT16, INT8, UINT32, UINT16, UINT8
ScaleTensor Eingabe 4 FLOAT32
ZeroPointTensor Eingabe 4 INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor Ausgabe 4 FLOAT32

DML_FEATURE_LEVEL_1_0 und höher

Tensor Variante Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 4 UINT8
ScaleTensor Eingabe 4 FLOAT32
ZeroPointTensor Eingabe 4 UINT8
OutputTensor Ausgabe 4 FLOAT32

Anforderungen

Anforderung Wert
Header directml.h

Weitere Informationen

DML_ELEMENT_WISE_QUANTIZE_LINEAR_OPERATOR_DESC