logisticRegression: logisticRegression
Erstellt eine Liste mit dem Funktionsnamen und den Argumenten zum Trainieren eines logistischen Regressionsmodells mit rxEnsemble.
Verwendung
logisticRegression(l2Weight = 1, l1Weight = 1, optTol = 1e-07,
memorySize = 20, initWtsScale = 0, maxIterations = 2147483647,
showTrainingStats = FALSE, sgdInitTol = 0, trainThreads = NULL,
denseOptimizer = FALSE, ...)
Argumente
l2Weight
Die L2-Regularisierungsgewichtung. Ihr Wert muss größer oder gleich 0
sein, der Standardwert ist auf 1
festgelegt.
l1Weight
Die L1-Regularisierungsgewichtung. Ihr Wert muss größer oder gleich 0
sein, der Standardwert ist auf 1
festgelegt.
optTol
Schwellenwert für Optimiererkonvergenz. Wenn die Verbesserung zwischen Iterationen kleiner als der Schwellenwert ist, wird der Algorithmus beendet und das aktuelle Modell zurückgegeben. Kleinere Werte sind langsamer, aber genauer. Der Standardwert ist 1e-07
.
memorySize
Die Arbeitsspeichergröße für L-BFGS, die die Anzahl der bisherigen Positionen und Gradienten angibt, die für die Berechnung des nächsten Schritts gespeichert werden sollen. Dieser Optimierungsparameter begrenzt die Arbeitsspeichermenge, die zur Berechnung der Größe und Richtung des nächsten Schritts verwendet wird. Wenn Sie weniger Speicher angeben, ist das Training zwar schneller, aber ungenauer. Muss größer oder gleich 1
sein, der Standardwert ist20
.
initWtsScale
Legt den Durchmesser der anfänglichen Gewichtungen fest, der den Bereich angibt, aus dem die Werte für die anfänglichen Gewichtungen stammen. Diese Gewichtungen werden innerhalb dieses Bereichs nach dem Zufallsprinzip initialisiert. Wenn beispielsweise der Durchmesser mit d
angegeben wird, werden die Gewichtungen gleichmäßig zwischen -d/2
und d/2
verteilt. Der Standardwert ist 0
, der angibt, dass alle Gewichtungen mit 0
initialisiert werden.
maxIterations
Legt die maximale Anzahl von Iterationen fest. Nach dieser Anzahl von Schritten wird der Algorithmus beendet, auch wenn er die Konvergenzkriterien nicht erfüllt hat.
showTrainingStats
Geben Sie TRUE
an, um die Statistik der Trainingsdaten und des trainierten Modells anzuzeigen; andernfalls FALSE
. Der Standardwert ist FALSE
. Weitere Informationen zu Modellstatistiken finden Sie unter summary.mlModel.
sgdInitTol
Legen Sie diesen Wert auf eine Zahl größer als 0 fest, um stochastische Gradientenabstiege (SGD) zum Ermitteln der Anfangsparameter zu verwenden. Ein Wert ungleich 0 legt die Toleranz fest, die SGD zur Bestimmung der Konvergenz verwendet. Der Standardwert ist 0
, was bedeutet, dass SGD nicht verwendet wird.
trainThreads
Die Anzahl der Threads zum Trainieren des Modells. Diese sollte auf die Anzahl der Kerne des Computers festgelegt werden. Beachten Sie, dass bei L-BFGS-Multithreading versucht wird, das Dataset in den Arbeitsspeicher zu laden. Bei Arbeitsspeicherproblemen legen Sie trainThreads
auf 1
fest, um Multithreading zu deaktivieren. Falls NULL
, wird die Anzahl der zu verwendenden Threads intern bestimmt. Der Standardwert ist NULL
.
denseOptimizer
Falls TRUE
, wird die Verdichtung der internen Optimierungsvektoren erzwungen. Falls FALSE
, kann der Optimierer der logistischen Regression spärliche oder dichte interne Zustände nach eigenem Ermessen verwenden. Bei Festlegen von denseOptimizer
auf TRUE
muss der interne Optimierer einen dichten internen Zustand verwenden, was die Beanspruchung des Garbage Collectors bei einigen Varianten größerer Probleme verringern kann.
...
Zusätzliche Argumente.