次の方法で共有


oneClassSvm: oneClassSvm

rxEnsemble で OneClassSvm モデルをトレーニングするための関数名と引数を含むリストを作成します。

使用方法

  oneClassSvm(cacheSize = 100, kernel = rbfKernel(), epsilon = 0.001,
    nu = 0.1, shrink = TRUE, ...)
 

引数

cacheSize

トレーニング データを格納するキャッシュの最大サイズ (MB 単位)。 大規模なトレーニング セットの場合は、これを増やします。 既定値は 100 MB です。

kernel

内積の計算に使用されるカーネルを表す文字列。 詳細については、「maKernel」を参照してください。 次の選択肢があります。

  • rbfKernel(): 放射基底関数カーネル。 パラメーターは項 exp(-gamma|x-y|^2gamma を表します。 指定しない場合、既定値は 1 を使用される特徴の数で割った値になります。 たとえば、rbfKernel(gamma = .1) のようにします。 これは、既定値です。
  • linearKernel(): 線形カーネル。
  • polynomialKernel(): 項 (a*<x,y> + bias)^deg でパラメーター名 abiasdeg を使用した多項式カーネル。 bias の既定値は 0 です。 次数 deg の既定値は 3 です。 a を指定しない場合は、1 を特徴の数で割った値に設定されます。 たとえば、「 maKernelPoynomial(bias = 0, deg = `` 3) 」のように入力します。
  • sigmoidKernel(): 項 tanh(gamma*<x,y> + coef0) でパラメーター名 gammacoef0 を使用したシグモイド カーネル。 gamma の既定値は 1 を特徴の数で割った値になります。 パラメーター coef0 の既定値は 0 です。 たとえば、sigmoidKernel(gamma = .1, coef0 = 0) のようにします。

epsilon

オプティマイザーの収束のしきい値。 イテレーション間の改善がしきい値を下回った場合に、アルゴリズムが終了して現在のモデルが返されます。 .Machine$double.eps 以上の値を指定する必要があります。 既定値は 0.001 です。

nu

外れ値の割合とサポート ベクター数の間のトレードオフ (ギリシャ文字 nu で表されます)。 0 ~ 1 (通常は 0.1 から 0.5 の間) である必要があります。 既定値は 0.1 です。

shrink

TRUE の場合、圧縮ヒューリスティックを使用します。 この場合、トレーニング手順中に一部のサンプルが "圧縮" され、トレーニングが高速化される可能性があります。 既定値は TRUE です。

...

Microsoft コンピューティング エンジンに直接渡される追加の引数。