次の方法で共有


Attention クラス

定義

アテンション 層。

public class Attention : TorchSharp.torch.nn.Module<TorchSharp.torch.Tensor,TorchSharp.torch.Tensor,TorchSharp.torch.Tensor>
type Attention = class
    inherit torch.nn.Module<torch.Tensor, torch.Tensor, torch.Tensor>
Public Class Attention
Inherits torch.nn.Module(Of torch.Tensor, torch.Tensor, torch.Tensor)
継承
torch.nn.Module<TorchSharp.torch.Tensor,TorchSharp.torch.Tensor,TorchSharp.torch.Tensor>
Attention

コンストラクター

Attention(Int32, Int32, Int32, Int32, List<Int32>)

Attention クラスの新しいインスタンスを初期化します。

メソッド

forward(torch+Tensor, torch+Tensor)

アテンション 層。

適用対象