Compartir a través de


kernel: Kernel

Kernels admitidos para su uso en el cálculo de productos internos.

Uso

  linearKernel(...)

  polynomialKernel(a = NULL, bias = 0, deg = 3, ...)

  rbfKernel(gamma = NULL, ...)

  sigmoidKernel(gamma = NULL, coef0 = 0, ...)

Argumentos

a

El valor numérico de "a" en el término (a*<x,y> + b)^d. Si no se especifica, se utiliza (1/(number of features).

bias

El valor numérico de "b" en el término (a*<x,y> + b)^d.

deg

El valor numérico de "d" en el término (a*<x,y> + b)^d.

gamma

El valor numérico de gamma en la expresión tanh(gamma*<x,y> + c). Si no se especifica, se utiliza 1/(number of features).

coef0

El valor numérico de "c" en la expresión tanh(gamma*<x,y> + c).

...

Argumentos adicionales pasados al motor de proceso de Microsoft ML.

Detalles

Estas funciones auxiliares especifican el kernel que se usa para el entrenamiento en algoritmos pertinentes. Los kernels que se admiten:

linearKernel: kernel lineal.

rbfKernel: kernel de función de base radial.

polynomialKernel: kernel polinómico.

sigmoidKernel: kernel sigmoide.

Value

Cadena de caracteres que define el kernel.

Autores

Microsoft Corporation Microsoft Technical Support

Referencias

Estimating the Support of a High-Dimensional Distribution

New Support Vector Algorithms

Consulte también

rxOneClassSvm

Ejemplos


 # Simulate some simple data
 set.seed(7)
 numRows <- 200
 normalData <- data.frame(day = 1:numRows)
 normalData$pageViews = runif(numRows, min = 10, max = 1000) + .5 * normalData$day
 testData <- data.frame(day = 1:numRows)
 # The test data has outliers above 1000
 testData$pageViews = runif(numRows, min = 10, max = 1400) + .5 * testData$day

 train <- function(kernelFunction, args=NULL) {
     model <- rxOneClassSvm(formula = ~pageViews + day, data = normalData,
     kernel = kernelFunction(args))
     scores <- rxPredict(model, data = testData, writeModelVars = TRUE)
     scores$groups = scores$Score > 0
     scores
 }
 display <- function(scores) {
     print(sum(scores$groups))
     rxLinePlot(pageViews ~ day, data = scores, groups = groups, type = "p",
      symbolColors = c("red", "blue"))
 }
 scores <- list()
 scores$rbfKernel <- train(rbfKernel)
 scores$linearKernel <- train(linearKernel)
 scores$polynomialKernel <- train(polynomialKernel, (a = .2))
 scores$sigmoidKernel <- train(sigmoidKernel)
 display(scores$rbfKernel)
 display(scores$linearKernel)
 display(scores$polynomialKernel)
 display(scores$sigmoidKernel)