Freigeben über


DML_ACTIVATION_GELU_OPERATOR_DESC-Struktur (directml.h)

Führt die Gaußsche lineare Fehlereinheit (GELU) Aktivierungsfunktion auf jedem Element in InputTensor aus und platziert das Ergebnis in das entsprechende Element von OutputTensor.

f(x) = 0.5 * x * (1.0 + erf(x / sqrt(2)))

Dabei ist erf(x) DML_ELEMENT_WISE_ERF_OPERATOR_DESC.

Wichtig

Diese API ist als Teil des eigenständigen weiterverteilbare Pakets DirectML verfügbar (siehe Microsoft.AI.DirectML , Version 1.9 und höher). Siehe auch DirectML-Versionsverlauf.

Syntax

struct DML_ACTIVATION_GELU_OPERATOR_DESC
{
    const DML_TENSOR_DESC* InputTensor;
    const DML_TENSOR_DESC* OutputTensor;
};

Member

InputTensor

Typ: const DML_TENSOR_DESC*

Der Eingabe-Tensor, aus dem gelesen wird.

OutputTensor

Typ: const DML_TENSOR_DESC*

Der Ausgabe-Tensor, in die das Ergebnis geschrieben werden soll.

Verfügbarkeit

Dieser Operator wurde in DML_FEATURE_LEVEL_5_1 eingeführt.

Tensor-Einschränkungen

InputTensor und OutputTensor müssen denselben DataType, DimensionCount, und Sizes aufweisen.

Tensor-Unterstützung

Tensor Variante Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 1 bis 8 FLOAT32, FLOAT16
OutputTensor Output 1 bis 8 FLOAT32, FLOAT16

Anforderungen

   
Übergeordnet directml.h