Freigeben über


Verlustfunktionen: Klassifizierungs- und Regressionsverlustfunktionen

Die Verlustfunktionen zur Klassifizierung und Regression.

Verwendung

  expLoss(beta = 1, ...)

  hingeLoss(margin = 1, ...)

  logLoss(...)

  smoothHingeLoss(smoothingConst = 1, ...)

  poissonLoss(...)

  squaredLoss(...)

Argumente

beta

Gibt den numerischen Wert von Beta (Erweiterung) an. Der Standardwert ist 1.

margin

Gibt den numerischen Randwert an. Der Standardwert ist 1.

smoothingConst

Gibt den numerischen Wert der Glättungskonstante an. Der Standardwert ist 1.

...

Ausgeblendetes Argument.

Details

Eine Verlustfunktion misst die Abweichung zwischen der Vorhersage eines Algorithmus für maschinelles Lernen und der überwachten Ausgabe und stellt die Kosten eines Fehlers dar.

Die unterstützten Klassifizierungsverlustfunktionen sind:

logLoss

expLoss

hingeLoss

smoothHingeLoss

Die unterstützten Regressionsverlustfunktionen sind:

poissonLoss

squaredLoss.

Wert

Eine Zeichenfolge, die die Verlustfunktion definiert.

Autor(en)

Microsoft Corporation Microsoft Technical Support

Weitere Informationen

rxFastLinear, rxNeuralNet

Beispiele


 train <- function(lossFunction) {

     result <- rxFastLinear(isCase ~ age + parity + education + spontaneous + induced,
                   transforms = list(isCase = case == 1), lossFunction = lossFunction,
                   data = infert,
                   type = "binary")
     coef(result)[["age"]]
 }

 age <- list()
 age$LogLoss <- train(logLoss())
 age$LogLossHinge <- train(hingeLoss())
 age$LogLossSmoothHinge <- train(smoothHingeLoss())
 age