Partage via


kernel : Noyau

Noyaux pris en charge pour une utilisation dans le calcul des produits internes.

Utilisation

  linearKernel(...)

  polynomialKernel(a = NULL, bias = 0, deg = 3, ...)

  rbfKernel(gamma = NULL, ...)

  sigmoidKernel(gamma = NULL, coef0 = 0, ...)

Arguments

a

Valeur numérique pour a dans le terme (a*<x,y> + b)^d. En l'absence de spécification, (1/(number of features) est utilisé.

bias

La valeur numérique de b dans le terme (a*<x,y> + b)^d.

deg

La valeur entière de c dans le terme (a*<x,y> + b)^d.

gamma

Valeur numérique pour gamma dans l’expression tanh(gamma*<x,y> + c). En l'absence de spécification, 1/(number of features) est utilisé.

coef0

Valeur numérique pour c dans l’expression tanh(gamma*<x,y> + c).

...

Arguments supplémentaires passés au moteur de calcul Microsoft ML.

Détails

Ces fonctions d’assistance spécifient le noyau utilisé pour l’apprentissage dans les algorithmes appropriés. Les noyaux pris en charge :

linearKernel : noyau linéaire.

rbfKernel : noyau de fonction de base radiale.

polynomialKernel : noyau polynomial.

sigmoidKernel : noyau sigmoïde.

Valeur

Chaîne de caractères définissant le noyau.

Auteur(s)

Microsoft Corporation Microsoft Technical Support

Références

Estimating the Support of a High-Dimensional Distribution

New Support Vector Algorithms

Voir aussi

rxOneClassSvm

Exemples


 # Simulate some simple data
 set.seed(7)
 numRows <- 200
 normalData <- data.frame(day = 1:numRows)
 normalData$pageViews = runif(numRows, min = 10, max = 1000) + .5 * normalData$day
 testData <- data.frame(day = 1:numRows)
 # The test data has outliers above 1000
 testData$pageViews = runif(numRows, min = 10, max = 1400) + .5 * testData$day

 train <- function(kernelFunction, args=NULL) {
     model <- rxOneClassSvm(formula = ~pageViews + day, data = normalData,
     kernel = kernelFunction(args))
     scores <- rxPredict(model, data = testData, writeModelVars = TRUE)
     scores$groups = scores$Score > 0
     scores
 }
 display <- function(scores) {
     print(sum(scores$groups))
     rxLinePlot(pageViews ~ day, data = scores, groups = groups, type = "p",
      symbolColors = c("red", "blue"))
 }
 scores <- list()
 scores$rbfKernel <- train(rbfKernel)
 scores$linearKernel <- train(linearKernel)
 scores$polynomialKernel <- train(polynomialKernel, (a = .2))
 scores$sigmoidKernel <- train(sigmoidKernel)
 display(scores$rbfKernel)
 display(scores$linearKernel)
 display(scores$polynomialKernel)
 display(scores$sigmoidKernel)