DML_ELEMENT_WISE_BIT_XOR_OPERATOR_DESC 구조체(directml.h)

입력 텐서의 각 해당 요소 간에 비트 XOR(eXclusive OR)를 계산하고 결과를 출력 텐서에 씁니다.

비트 연산은 네이티브 인코딩의 텐서 데이터에 적용됩니다. 따라서 각 요소의 너비를 결정하는 경우를 제외하고 텐서 데이터 형식은 무시됩니다.

이 연산자는 현재 위치 실행을 지원합니다. 즉, 출력 텐서가 바인딩하는 동안 하나 이상의 입력 텐서에 별칭을 지정할 수 있습니다.

구문

struct DML_ELEMENT_WISE_BIT_XOR_OPERATOR_DESC {
  const DML_TENSOR_DESC *ATensor;
  const DML_TENSOR_DESC *BTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

멤버

ATensor

형식: const DML_TENSOR_DESC*

왼쪽 입력을 포함하는 텐서입니다.

BTensor

형식: const DML_TENSOR_DESC*

오른쪽 입력을 포함하는 텐서입니다.

OutputTensor

형식: const DML_TENSOR_DESC*

결과를 쓸 출력 텐서입니다.

예제

InputTensor: (Sizes:{2,2}, DataType:UINT8)
[[0,  128], // 0b00000000, 0b10000000
 [42, 255]] // 0b00101010, 0b11111111

OutputTensor: (Sizes:{2,2}, DataType:UINT8)
[[255, 127], // 0b11111111, 0b01111111
 [213, 0  ]] // 0b11010101, 0b00000000

가용성

이 연산자는 .에서 DML_FEATURE_LEVEL_3_0도입되었습니다.

Tensor 제약 조건

ATensor, BTensorOutputTensor 에는 동일한 DataType, DimensionCount크기가 있어야 합니다.

Tensor 지원

DML_FEATURE_LEVEL_4_1 이상

텐서 종류 지원되는 차원 수 지원되는 데이터 형식
ATensor 입력 1에서 8까지 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
BTensor 입력 1에서 8까지 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
OutputTensor 출력 1에서 8까지 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_3_0 이상

텐서 종류 지원되는 차원 수 지원되는 데이터 형식
ATensor 입력 1에서 8까지 UINT32, UINT16, UINT8
BTensor 입력 1에서 8까지 UINT32, UINT16, UINT8
OutputTensor 출력 1에서 8까지 UINT32, UINT16, UINT8

요구 사항

   
지원되는 최소 클라이언트 Windows 10 빌드 20348
지원되는 최소 서버 Windows 10 빌드 20348
머리글 directml.h