Structure DML_ACTIVATION_GELU_OPERATOR_DESC (directml.h)
Exécute la fonction d’activation de l’unité linéaire d’erreur gaussienne (GELU) sur chaque élément de InputTensor, en plaçant le résultat dans l’élément OutputTensor correspondant.
f(x) = 0.5 * x * (1.0 + erf(x / sqrt(2)))
Où erf(x) est DML_ELEMENT_WISE_ERF_OPERATOR_DESC.
Important
Cette API est disponible dans le cadre du package redistribuable autonome DirectML (voir Microsoft.AI.DirectML version 1.9 et ultérieures). Consultez également l’historique des versions DirectML.
Syntaxe
struct DML_ACTIVATION_GELU_OPERATOR_DESC
{
const DML_TENSOR_DESC* InputTensor;
const DML_TENSOR_DESC* OutputTensor;
};
Membres
InputTensor
Type : const DML_TENSOR_DESC*
Tenseur d’entrée à partir duquel effectuer la lecture.
OutputTensor
Type : const DML_TENSOR_DESC*
Tenseur de sortie dans lequel le résultat doit être écrit.
Disponibilité
Cet opérateur a été introduit dans DML_FEATURE_LEVEL_5_1.
Contraintes de tenseur
InputTensor et OutputTensor doivent avoir les mêmes DataType, DimensionCount et Sizes.
Prise en charge des tenseurs
Tenseur | Genre | Nombre de dimensions pris en charge | Types de données pris en charge |
---|---|---|---|
InputTensor | Input | 1 à 8 | FLOAT32, FLOAT16 |
OutputTensor | Sortie | 1 à 8 | FLOAT32, FLOAT16 |
Spécifications
En-tête | directml.h |
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour