kernel : Noyau
Noyaux pris en charge pour une utilisation dans le calcul des produits internes.
Utilisation
linearKernel(...)
polynomialKernel(a = NULL, bias = 0, deg = 3, ...)
rbfKernel(gamma = NULL, ...)
sigmoidKernel(gamma = NULL, coef0 = 0, ...)
Arguments
a
Valeur numérique pour a dans le terme (a*<x,y> + b)^d. En l'absence de spécification, (1/(number of features)
est utilisé.
bias
La valeur numérique de b dans le terme (a*<x,y> + b)^d
.
deg
La valeur entière de c dans le terme (a*<x,y> + b)^d
.
gamma
Valeur numérique pour gamma dans l’expression tanh(gamma*<x,y> + c
). En l'absence de spécification, 1/(number of features)
est utilisé.
coef0
Valeur numérique pour c dans l’expression tanh(gamma*<x,y> + c
).
...
Arguments supplémentaires passés au moteur de calcul Microsoft ML.
Détails
Ces fonctions d’assistance spécifient le noyau utilisé pour l’apprentissage dans les algorithmes appropriés. Les noyaux pris en charge :
linearKernel
: noyau linéaire.
rbfKernel
: noyau de fonction de base radiale.
polynomialKernel
: noyau polynomial.
sigmoidKernel
: noyau sigmoïde.
Valeur
Chaîne de caractères définissant le noyau.
Auteur(s)
Microsoft Corporation Microsoft Technical Support
Références
Estimating the Support of a High-Dimensional Distribution
Voir aussi
Exemples
# Simulate some simple data
set.seed(7)
numRows <- 200
normalData <- data.frame(day = 1:numRows)
normalData$pageViews = runif(numRows, min = 10, max = 1000) + .5 * normalData$day
testData <- data.frame(day = 1:numRows)
# The test data has outliers above 1000
testData$pageViews = runif(numRows, min = 10, max = 1400) + .5 * testData$day
train <- function(kernelFunction, args=NULL) {
model <- rxOneClassSvm(formula = ~pageViews + day, data = normalData,
kernel = kernelFunction(args))
scores <- rxPredict(model, data = testData, writeModelVars = TRUE)
scores$groups = scores$Score > 0
scores
}
display <- function(scores) {
print(sum(scores$groups))
rxLinePlot(pageViews ~ day, data = scores, groups = groups, type = "p",
symbolColors = c("red", "blue"))
}
scores <- list()
scores$rbfKernel <- train(rbfKernel)
scores$linearKernel <- train(linearKernel)
scores$polynomialKernel <- train(polynomialKernel, (a = .2))
scores$sigmoidKernel <- train(sigmoidKernel)
display(scores$rbfKernel)
display(scores$linearKernel)
display(scores$polynomialKernel)
display(scores$sigmoidKernel)
Commentaires
https://aka.ms/ContentUserFeedback.
Prochainement : Tout au long de l'année 2024, nous supprimerons progressivement les GitHub Issues en tant que mécanisme de retour d'information pour le contenu et nous les remplacerons par un nouveau système de retour d'information. Pour plus d’informations, voir:Soumettre et afficher des commentaires pour