kernel:内核

支持用于计算内部产品的内核。

用法

  linearKernel(...)

  polynomialKernel(a = NULL, bias = 0, deg = 3, ...)

  rbfKernel(gamma = NULL, ...)

  sigmoidKernel(gamma = NULL, coef0 = 0, ...)

参数

a

项 (a*<x,y> + b)^d 中 a 的数值。 如果未指定,则使用 (1/(number of features)

bias

(a*<x,y> + b)^d 中 b 的数值。

deg

(a*<x,y> + b)^d 中 b 的整数值。

gamma

表达式 tanh(gamma*<x,y> + c 中 gamma 的数值。 如果未指定,则使用 1/(number of features)

coef0

表达式 tanh(gamma*<x,y> + c 中 c 的数值。

...

传递给 Microsoft ML 计算引擎的其他参数。

详细信息

这些帮助程序函数指定用于相关算法训练的内核。 支持的内核:

linearKernel:线性内核。

rbfKernel:径向基础函数内核。

polynomialKernel:多项式内核。

sigmoidKernel:sigmoid 内核。

定义内核的字符串。

作者

Microsoft Corporation Microsoft Technical Support

参考

Estimating the Support of a High-Dimensional Distribution

New Support Vector Algorithms

另请参阅

rxOneClassSvm

示例


 # Simulate some simple data
 set.seed(7)
 numRows <- 200
 normalData <- data.frame(day = 1:numRows)
 normalData$pageViews = runif(numRows, min = 10, max = 1000) + .5 * normalData$day
 testData <- data.frame(day = 1:numRows)
 # The test data has outliers above 1000
 testData$pageViews = runif(numRows, min = 10, max = 1400) + .5 * testData$day

 train <- function(kernelFunction, args=NULL) {
     model <- rxOneClassSvm(formula = ~pageViews + day, data = normalData,
     kernel = kernelFunction(args))
     scores <- rxPredict(model, data = testData, writeModelVars = TRUE)
     scores$groups = scores$Score > 0
     scores
 }
 display <- function(scores) {
     print(sum(scores$groups))
     rxLinePlot(pageViews ~ day, data = scores, groups = groups, type = "p",
      symbolColors = c("red", "blue"))
 }
 scores <- list()
 scores$rbfKernel <- train(rbfKernel)
 scores$linearKernel <- train(linearKernel)
 scores$polynomialKernel <- train(polynomialKernel, (a = .2))
 scores$sigmoidKernel <- train(sigmoidKernel)
 display(scores$rbfKernel)
 display(scores$linearKernel)
 display(scores$polynomialKernel)
 display(scores$sigmoidKernel)