次の方法で共有


neuralNet: neuralNet

rxEnsemble で NeuralNet モデルをトレーニングするための関数名と引数を含むリストを作成します。

使用方法

  neuralNet(numHiddenNodes = 100, numIterations = 100, optimizer = sgd(),
    netDefinition = NULL, initWtsDiameter = 0.1, maxNorm = 0,
    acceleration = c("sse", "gpu"), miniBatchSize = 1, ...)
 

引数

numHiddenNodes

ニューラル ネット内の非表示ノードの既定の数。 既定値は 100 です。

numIterations

完全なトレーニング セットでの反復回数。 既定値は 100 です。

optimizer

sgd または adaptive のいずれかの最適化アルゴリズムを指定するリスト。 このリストは、sgd または adaDeltaSgd を使用して作成できます。 既定値は sgd です。

netDefinition

ニューラル ネットワークの構造の Net# 定義。 Net# 言語の詳細については、「Reference Guide」を参照してください

initWtsDiameter

初期学習の重みの値の範囲を指定する初期の重みの直径を設定します。 重みは、この範囲内からランダムに初期化されます。 既定値は 0.1 です。

maxNorm

各非表示単位の受信重みベクトルの標準を制約する上限を指定します。 これは、最大出力のニューラル ネットワークと、トレーニングによって無制限の重み付けが生成される場合に、重要になることがあります。

acceleration

使用するハードウェア アクセラレータの種類を指定します。 指定できる値は、"sse" と "gpu" です。 GPU アクセラレータの場合は、1 より大きい miniBatchSize を使用することをお勧めします。 GPU アクセラレータを使用する場合は、追加の手動セットアップ手順が必要です。

  • NVidia CUDA Toolkit 6.5 (CUDA Toolkit) をダウンロードしてインストールします。
  • NVidia cuDNN v2 Library (cudnn Library) をダウンロードしてインストールします。
  • system.file("mxLibs/x64", package = "MicrosoftML") を呼び出して、MicrosoftRML パッケージの libs ディレクトリを見つけます。
  • cublas64_65.dll、cudart64_65.dll、cusparse64_65.dll を CUDA Toolkit 6.5 から MicrosoftML パッケージの libs ディレクトリにコピーします。
  • cudnn64_65.dll を cuDNN v2 Library から MicrosoftML パッケージの libs ディレクトリにコピーします。

miniBatchSize

ミニバッチ サイズを設定します。 推奨値は 1 から 256 までです。 このパラメーターは、アクセラレータが GPU の場合にのみ使用されます。 このパラメーターを大きな値に設定すると、トレーニングの速度が向上しますが、精度に悪影響を及ぼす可能性があります。 既定値は 1 です。

...

追加の引数。