Partager via


Structure DML_ACTIVATION_GELU_OPERATOR_DESC (directml.h)

Exécute la fonction d’activation de l’unité linéaire d’erreur gaussienne (GELU) sur chaque élément de InputTensor, en plaçant le résultat dans l’élément OutputTensor correspondant.

f(x) = 0.5 * x * (1.0 + erf(x / sqrt(2)))

Où erf(x) est DML_ELEMENT_WISE_ERF_OPERATOR_DESC.

Important

Cette API est disponible dans le cadre du package redistribuable autonome DirectML (voir Microsoft.AI.DirectML version 1.9 et ultérieures). Consultez également l’historique des versions DirectML.

Syntaxe

struct DML_ACTIVATION_GELU_OPERATOR_DESC
{
    const DML_TENSOR_DESC* InputTensor;
    const DML_TENSOR_DESC* OutputTensor;
};

Membres

InputTensor

Type : const DML_TENSOR_DESC*

Tenseur d’entrée à partir duquel effectuer la lecture.

OutputTensor

Type : const DML_TENSOR_DESC*

Tenseur de sortie dans lequel le résultat doit être écrit.

Disponibilité

Cet opérateur a été introduit dans DML_FEATURE_LEVEL_5_1.

Contraintes de tenseur

InputTensor et OutputTensor doivent avoir les mêmes DataType, DimensionCount et Sizes.

Prise en charge des tenseurs

Tenseur Genre Nombre de dimensions pris en charge Types de données pris en charge
InputTensor Input 1 à 8 FLOAT32, FLOAT16
OutputTensor Sortie 1 à 8 FLOAT32, FLOAT16

Spécifications

   
En-tête directml.h