次の方法で共有


kernel: Kernel

内積の計算での使用にサポートされるカーネル。

使用方法

  linearKernel(...)

  polynomialKernel(a = NULL, bias = 0, deg = 3, ...)

  rbfKernel(gamma = NULL, ...)

  sigmoidKernel(gamma = NULL, coef0 = 0, ...)

引数

a

項 (a*<x,y> + b)^d の a に対する数値。 指定しない場合は、(1/(number of features) が使用されます。

bias

(a*<x,y> + b)^d の b に対する数値。

deg

(a*<x,y> + b)^d の d に対する整数。

gamma

tanh(gamma*<x,y> + c の gamma に対する数値。 指定しない場合は、1/(number of features) が使用されます。

coef0

tanh(gamma*<x,y> + c の c に対する数値。

...

Microsoft ML コンピューティング エンジンに渡される追加の引数。

詳細

これらのヘルパー関数を使用して、関連するアルゴリズムでトレーニングに使用されるカーネルを指定します。 サポートされているカーネル:

linearKernel: 線形カーネル。

rbfKernel: 放射基底関数カーネル。

polynomialKernel: 多項式カーネル。

sigmoidKernel: シグモイド カーネル。

カーネルを定義する文字列。

作成者

Microsoft Corporation Microsoft Technical Support

リファレンス

Estimating the Support of a High-Dimensional Distribution

New Support Vector Algorithms

こちらもご覧ください

rxOneClassSvm

使用例


 # Simulate some simple data
 set.seed(7)
 numRows <- 200
 normalData <- data.frame(day = 1:numRows)
 normalData$pageViews = runif(numRows, min = 10, max = 1000) + .5 * normalData$day
 testData <- data.frame(day = 1:numRows)
 # The test data has outliers above 1000
 testData$pageViews = runif(numRows, min = 10, max = 1400) + .5 * testData$day

 train <- function(kernelFunction, args=NULL) {
     model <- rxOneClassSvm(formula = ~pageViews + day, data = normalData,
     kernel = kernelFunction(args))
     scores <- rxPredict(model, data = testData, writeModelVars = TRUE)
     scores$groups = scores$Score > 0
     scores
 }
 display <- function(scores) {
     print(sum(scores$groups))
     rxLinePlot(pageViews ~ day, data = scores, groups = groups, type = "p",
      symbolColors = c("red", "blue"))
 }
 scores <- list()
 scores$rbfKernel <- train(rbfKernel)
 scores$linearKernel <- train(linearKernel)
 scores$polynomialKernel <- train(polynomialKernel, (a = .2))
 scores$sigmoidKernel <- train(sigmoidKernel)
 display(scores$rbfKernel)
 display(scores$linearKernel)
 display(scores$polynomialKernel)
 display(scores$sigmoidKernel)