다음을 통해 공유


DML_ELEMENT_WISE_IDENTITY_OPERATOR_DESC 구조체(directml.h)

InputTensor의 각 요소에 대한 ID를 계산하여 결과를 OutputTensor의 해당 요소에 배치합니다.

f(x) = x

이 연산자는 현재 위치 실행을 지원합니다. 즉, 바인딩하는 동안 OutputTensorInputTensor 의 별칭을 지정하도록 허용됩니다.

구문

struct DML_ELEMENT_WISE_IDENTITY_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *OutputTensor;
  const DML_SCALE_BIAS  *ScaleBias;
};

멤버

InputTensor

형식: const DML_TENSOR_DESC*

읽을 입력 텐서입니다.

OutputTensor

형식: const DML_TENSOR_DESC*

결과를 쓸 출력 텐서입니다.

ScaleBias

형식: _Maybenull_ const DML_SCALE_BIAS*

입력에 적용할 선택적 배율 및 바이어스입니다. 있는 경우 이 연산자를 계산하기 전에 각 입력 요소에 함수 g(x) = x * scale + bias 를 적용하는 효과가 있습니다.

설명

ID 작업은 종종 텐서를 복사하는 데 사용됩니다.

또한 보폭을 조작하여 텐서의 레이아웃을 변환하는 데 사용할 수 있습니다( 보폭을 사용하여 안쪽 여백 및 메모리 레이아웃 표현 참조).

가용성

이 연산자는 에서 DML_FEATURE_LEVEL_1_0도입되었습니다.

텐서 제약 조건

InputTensorOutputTensor 에는 동일한 DataType, DimensionCount크기가 있어야 합니다.

텐서 지원

DML_FEATURE_LEVEL_4_1 이상

텐서 종류 지원되는 차원 수 지원되는 데이터 형식
InputTensor 입력 1-8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
OutputTensor 출력 1-8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_3_0 이상

텐서 종류 지원되는 차원 수 지원되는 데이터 형식
InputTensor 입력 1-8 FLOAT32, FLOAT16, INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor 출력 1-8 FLOAT32, FLOAT16, INT32, INT16, INT8, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_2_1 이상

텐서 종류 지원되는 차원 수 지원되는 데이터 형식
InputTensor 입력 4~5 FLOAT32, FLOAT16, INT32, INT16, INT8, UINT32, UINT16, UINT8
OutputTensor 출력 4~5 FLOAT32, FLOAT16, INT32, INT16, INT8, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_1_0 이상

텐서 종류 지원되는 차원 수 지원되는 데이터 형식
InputTensor 입력 4~5 FLOAT32, FLOAT16
OutputTensor 출력 4~5 FLOAT32, FLOAT16

요구 사항

요구 사항
헤더 directml.h