fastLinear: fastLinear
Erstellt eine Liste mit dem Funktionsnamen und den Argumenten zum Trainieren eines schnellen linearen Modells mit rxEnsemble.
Verwendung
fastLinear(lossFunction = NULL, l2Weight = NULL, l1Weight = NULL,
trainThreads = NULL, convergenceTolerance = 0.1, maxIterations = NULL,
shuffle = TRUE, checkFrequency = NULL, ...)
Argumente
lossFunction
Gibt die zu optimierende empirische Verlustfunktion an. Für binäre Klassifizierung sind die folgenden Optionen verfügbar:
- logLoss: der Protokollverlust. Dies ist die Standardoption.
- hingeLoss: der SVM-Scharnierverlust. Dessen Parameter stellt die Randgröße dar.
- smoothHingeLoss: geglätteter Scharnierverlust. Dessen Parameter stellt die Glättungskonstante dar.
Für lineare Regression wird derzeit der quadratische Verlust squaredLoss unterstützt. Wenn dieser Parameter aufNULL
festgelegt ist, hängt sein Standardwert vom Lerntyp ab: - logLoss für binäre Klassifizierung.
- squaredLoss für lineare Regression.
l2Weight
Gibt die L2-Regularisierungsgewichtung an. Der Wert muss eine nicht negative ganze Zahl oder NULL
sein. Falls NULL
angegeben ist, wird der tatsächliche Wert automatisch basierend auf dem Dataset berechnet. Der Standardwert lautet NULL
.
l1Weight
Gibt die L1-Regularisierungsgewichtung an. Der Wert muss eine nicht negative ganze Zahl oder NULL
sein. Falls NULL
angegeben ist, wird der tatsächliche Wert automatisch basierend auf dem Dataset berechnet. Der Standardwert lautet NULL
.
trainThreads
Gibt an, wie viele gleichzeitige Threads zum Ausführen des Algorithmus verwendet werden können. Wenn dieser Parameter auf NULL
festgelegt ist, wird die Anzahl der verwendeten Threads basierend auf der Anzahl der für den Prozess verfügbaren logischen Prozessoren sowie der geringen Datendichte bestimmt. Legen Sie ihn auf 1
fest, um den Algorithmus in einem einzelnen Thread auszuführen.
convergenceTolerance
Gibt den Toleranzschwellenwert an, der als Konvergenzkriterium verwendet wird. Der Wert muss im Bereich 0 bis 1 liegen. Der Standardwert ist 0.1
. Der Algorithmus gilt als konvergiert, wenn die relative Dualitätslücke, d. h. das Verhältnis zwischen Dualitätslücke und Primärverlust, unter die angegebene Konvergenztoleranz fällt.
maxIterations
Gibt eine Obergrenze für die Anzahl der Trainingsiterationen an. Dieser Parameter muss ein positiver Wert oder NULL
sein. Falls NULL
angegeben ist, wird der tatsächliche Wert automatisch basierend auf dem Dataset berechnet. Jede Iteration erfordert einen vollständigen Durchlauf durch die Trainingsdaten. Das Training endet, wenn die Gesamtanzahl der Iterationen die angegebene Obergrenze erreicht oder die Verlustfunktion konvergiert, je nachdem, was früher eintritt.
shuffle
Gibt an, ob die Trainingsdaten gemischt werden sollen. Legen Sie TRUE
fest, um die Daten zu mischen, oder FALSE
, um sie nicht zu mischen. Der Standardwert ist TRUE
. SDCA ist ein stochastischer Optimierungsalgorithmus. Wenn Mischen aktiviert ist, werden die Trainingsdaten bei jeder Iteration gemischt.
checkFrequency
Die Anzahl der Iterationen, nach denen die Verlustfunktion berechnet und überprüft wird, ob sie konvergiert. Der angegebene Wert muss eine positive ganze Zahl oder NULL
sein. Falls NULL
, wird der tatsächliche Wert automatisch basierend auf dem Dataset berechnet. Andernfalls, z. B. bei Angabe von checkFrequency = 5
, wird die Verlustfunktion berechnet, und Konvergenz wird alle 5 Iterationen überprüft. Die Berechnung der Verlustfunktion erfordert einen separaten vollständigen Durchlauf durch die Trainingsdaten.
...
Zusätzliche Argumente.