Share via


estrutura DML_ELEMENT_WISE_DEQUANTIZE_LINEAR_OPERATOR_DESC (directml.h)

Executa a seguinte função de desquantização linear em cada elemento em InputTensor em relação ao elemento correspondente em ScaleTensor e ZeroPointTensor, colocando os resultados no elemento correspondente de OutputTensor.

f(input, scale, zero_point) = (input - zero_point) * scale

A quantização é uma maneira comum de aumentar o desempenho ao custo da precisão. Um grupo de valores int de 8 bits pode ser calculado mais rapidamente do que um grupo de valores float de 32 bits pode. A desquantização converte os dados codificados de volta em seu domínio.

Sintaxe

struct DML_ELEMENT_WISE_DEQUANTIZE_LINEAR_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *ScaleTensor;
  const DML_TENSOR_DESC *ZeroPointTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

Membros

InputTensor

Tipo: const DML_TENSOR_DESC*

O tensor que contém as entradas.

ScaleTensor

Tipo: const DML_TENSOR_DESC*

O tensor que contém as escalas.

ZeroPointTensor

Tipo: const DML_TENSOR_DESC*

O tensor que contém o ponto zero usado para quantização.

OutputTensor

Tipo: const DML_TENSOR_DESC*

O tensor de saída para o qual gravar os resultados.

Disponibilidade

Esse operador foi introduzido em DML_FEATURE_LEVEL_1_0.

Restrições do Tensor

  • InputTensor, OutputTensor, ScaleTensor e ZeroPointTensor devem ter os mesmos DimensionCount e Sizes.
  • InputTensor e ZeroPointTensor devem ter o mesmo DataType.
  • OutputTensor e ScaleTensor devem ter o mesmo DataType.

Suporte ao Tensor

DML_FEATURE_LEVEL_6_2 e superior

Tensor Tipo Contagens de dimensões com suporte Tipos de dados com suporte
InputTensor Entrada 1 a 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
ScaleTensor Entrada 1 a 8 FLOAT32, FLOAT16
ZeroPointTensor Entrada opcional 1 a 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor Saída 1 a 8 FLOAT32, FLOAT16

DML_FEATURE_LEVEL_6_0 e superior

Tensor Tipo Contagens de dimensões com suporte Tipos de dados com suporte
InputTensor Entrada 1 a 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
ScaleTensor Entrada 1 a 8 FLOAT32, FLOAT16
ZeroPointTensor Entrada 1 a 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor Saída 1 a 8 FLOAT32, FLOAT16

DML_FEATURE_LEVEL_3_0 e superior

Tensor Tipo Contagens de dimensões com suporte Tipos de dados com suporte
InputTensor Entrada 1 a 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
ScaleTensor Entrada 1 a 8 FLOAT32
ZeroPointTensor Entrada 1 a 8 INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor Saída 1 a 8 FLOAT32

DML_FEATURE_LEVEL_2_1 e superior

Tensor Tipo Contagens de dimensões com suporte Tipos de dados com suporte
InputTensor Entrada 4 INT32, INT16, INT8, UINT32, UINT16, UINT8
ScaleTensor Entrada 4 FLOAT32
ZeroPointTensor Entrada 4 INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor Saída 4 FLOAT32

DML_FEATURE_LEVEL_1_0 e superior

Tensor Tipo Contagens de dimensões com suporte Tipos de dados com suporte
InputTensor Entrada 4 UINT8
ScaleTensor Entrada 4 FLOAT32
ZeroPointTensor Entrada 4 UINT8
OutputTensor Saída 4 FLOAT32

Requisitos

Requisito Valor
Cabeçalho directml.h

Confira também

DML_ELEMENT_WISE_QUANTIZE_LINEAR_OPERATOR_DESC