estrutura DML_ELEMENT_WISE_DEQUANTIZE_LINEAR_OPERATOR_DESC (directml.h)
Executa a seguinte função de desquantização linear em cada elemento em InputTensor em relação ao elemento correspondente em ScaleTensor e ZeroPointTensor
, colocando os resultados no elemento correspondente de OutputTensor.
f(input, scale, zero_point) = (input - zero_point) * scale
A quantização é uma maneira comum de aumentar o desempenho ao custo da precisão. Um grupo de valores int de 8 bits pode ser calculado mais rapidamente do que um grupo de valores float de 32 bits pode. A desquantização converte os dados codificados de volta em seu domínio.
Sintaxe
struct DML_ELEMENT_WISE_DEQUANTIZE_LINEAR_OPERATOR_DESC {
const DML_TENSOR_DESC *InputTensor;
const DML_TENSOR_DESC *ScaleTensor;
const DML_TENSOR_DESC *ZeroPointTensor;
const DML_TENSOR_DESC *OutputTensor;
};
Membros
InputTensor
Tipo: const DML_TENSOR_DESC*
O tensor que contém as entradas.
ScaleTensor
Tipo: const DML_TENSOR_DESC*
O tensor que contém as escalas.
ZeroPointTensor
Tipo: const DML_TENSOR_DESC*
O tensor que contém o ponto zero usado para quantização.
OutputTensor
Tipo: const DML_TENSOR_DESC*
O tensor de saída para o qual gravar os resultados.
Disponibilidade
Esse operador foi introduzido em DML_FEATURE_LEVEL_1_0
.
Restrições do Tensor
- InputTensor, OutputTensor, ScaleTensor e ZeroPointTensor devem ter os mesmos DimensionCount e Sizes.
- InputTensor e ZeroPointTensor devem ter o mesmo DataType.
- OutputTensor e ScaleTensor devem ter o mesmo DataType.
Suporte ao Tensor
DML_FEATURE_LEVEL_6_2 e superior
Tensor | Tipo | Contagens de dimensões com suporte | Tipos de dados com suporte |
---|---|---|---|
InputTensor | Entrada | 1 a 8 | INT32, INT16, INT8, UINT32, UINT16, UINT8 |
ScaleTensor | Entrada | 1 a 8 | FLOAT32, FLOAT16 |
ZeroPointTensor | Entrada opcional | 1 a 8 | INT32, INT16, INT8, UINT32, UINT16, UINT8 |
OutputTensor | Saída | 1 a 8 | FLOAT32, FLOAT16 |
DML_FEATURE_LEVEL_6_0 e superior
Tensor | Tipo | Contagens de dimensões com suporte | Tipos de dados com suporte |
---|---|---|---|
InputTensor | Entrada | 1 a 8 | INT32, INT16, INT8, UINT32, UINT16, UINT8 |
ScaleTensor | Entrada | 1 a 8 | FLOAT32, FLOAT16 |
ZeroPointTensor | Entrada | 1 a 8 | INT32, INT16, INT8, UINT32, UINT16, UINT8 |
OutputTensor | Saída | 1 a 8 | FLOAT32, FLOAT16 |
DML_FEATURE_LEVEL_3_0 e superior
Tensor | Tipo | Contagens de dimensões com suporte | Tipos de dados com suporte |
---|---|---|---|
InputTensor | Entrada | 1 a 8 | INT32, INT16, INT8, UINT32, UINT16, UINT8 |
ScaleTensor | Entrada | 1 a 8 | FLOAT32 |
ZeroPointTensor | Entrada | 1 a 8 | INT32, INT16, INT8, UINT32, UINT16, UINT8 |
OutputTensor | Saída | 1 a 8 | FLOAT32 |
DML_FEATURE_LEVEL_2_1 e superior
Tensor | Tipo | Contagens de dimensões com suporte | Tipos de dados com suporte |
---|---|---|---|
InputTensor | Entrada | 4 | INT32, INT16, INT8, UINT32, UINT16, UINT8 |
ScaleTensor | Entrada | 4 | FLOAT32 |
ZeroPointTensor | Entrada | 4 | INT32, INT16, INT8, UINT32, UINT16, UINT8 |
OutputTensor | Saída | 4 | FLOAT32 |
DML_FEATURE_LEVEL_1_0 e superior
Tensor | Tipo | Contagens de dimensões com suporte | Tipos de dados com suporte |
---|---|---|---|
InputTensor | Entrada | 4 | UINT8 |
ScaleTensor | Entrada | 4 | FLOAT32 |
ZeroPointTensor | Entrada | 4 | UINT8 |
OutputTensor | Saída | 4 | FLOAT32 |
Requisitos
Requisito | Valor |
---|---|
Cabeçalho | directml.h |
Confira também
Comentários
https://aka.ms/ContentUserFeedback.
Em breve: Ao longo de 2024, eliminaremos os problemas do GitHub como o mecanismo de comentários para conteúdo e o substituiremos por um novo sistema de comentários. Para obter mais informações, consulteEnviar e exibir comentários de