미정
중요합니다
이 API는 DirectML 독립 실행형 재배포 가능 패키지의 일부로 사용할 수 있습니다( Microsoft.AI.DirectML 버전 1.15.0 이상 참조). 또한 DirectML 버전 기록 참조하세요.
문법
struct DML_DEQUANTIZE_OPERATOR_DESC
{
const DML_TENSOR_DESC* InputTensor;
DML_QUANTIZATION_TYPE QuantizationType;
UINT QuantizationTensorCount;
_Field_size_(QuantizationTensorCount) const DML_TENSOR_DESC* QuantizationTensors;
const DML_TENSOR_DESC* OutputTensor;
};
구성원
InputTensor
형식: const DML_TENSOR_DESC*
읽을 입력 텐서입니다.
QuantizationType
형식: DML_QUANTIZATION_TYPE
미정
QuantizationTensorCount
형식: UINT
미정. 이 필드는 QuantizationTensors 배열의 크기를 결정합니다.
QuantizationTensors
형식: _Field_size_(QuantizationTensorCount) const DML_TENSOR_DESC*
미정
OutputTensor
형식: const DML_TENSOR_DESC*
결과를 쓸 출력 텐서입니다.
가용도
이 연산자는 DML_FEATURE_LEVEL_6_3 도입되었습니다.
Tensor 제약 조건
InputTensor, OutputTensor 및 QuantizationTensors 의 DimensionCount는 같아야 합니다.
Tensor 지원
텐서 | 친절한 | 지원되는 차원 수 | 지원되는 데이터 형식 |
---|---|---|---|
입력 텐서 | 입력 | 1~8 | INT8, INT4, UINT8, UINT4 |
양자화텐서 | 입력 배열 | 1~8 | FLOAT32, FLOAT16, INT8, INT4, UINT8, UINT4 |
출력텐서 | 출력 | 1~8 | FLOAT32, FLOAT16 |