Teilen über


fastLinear: fastLinear

Erstellt eine Liste mit dem Funktionsnamen und den Argumenten zum Trainieren eines schnellen linearen Modells mit rxEnsemble.

Verwendung

  fastLinear(lossFunction = NULL, l2Weight = NULL, l1Weight = NULL,
    trainThreads = NULL, convergenceTolerance = 0.1, maxIterations = NULL,
    shuffle = TRUE, checkFrequency = NULL, ...)
 

Argumente

lossFunction

Gibt die zu optimierende empirische Verlustfunktion an. Für binäre Klassifizierung sind die folgenden Optionen verfügbar:

  • logLoss: der Protokollverlust. Dies ist die Standardoption.
  • hingeLoss: der SVM-Scharnierverlust. Dessen Parameter stellt die Randgröße dar.
  • smoothHingeLoss: geglätteter Scharnierverlust. Dessen Parameter stellt die Glättungskonstante dar.
    Für lineare Regression wird derzeit der quadratische Verlust squaredLoss unterstützt. Wenn dieser Parameter auf NULL festgelegt ist, hängt sein Standardwert vom Lerntyp ab:
  • logLoss für binäre Klassifizierung.
  • squaredLoss für lineare Regression.

l2Weight

Gibt die L2-Regularisierungsgewichtung an. Der Wert muss eine nicht negative ganze Zahl oder NULL sein. Falls NULL angegeben ist, wird der tatsächliche Wert automatisch basierend auf dem Dataset berechnet. Der Standardwert lautet NULL.

l1Weight

Gibt die L1-Regularisierungsgewichtung an. Der Wert muss eine nicht negative ganze Zahl oder NULL sein. Falls NULL angegeben ist, wird der tatsächliche Wert automatisch basierend auf dem Dataset berechnet. Der Standardwert lautet NULL.

trainThreads

Gibt an, wie viele gleichzeitige Threads zum Ausführen des Algorithmus verwendet werden können. Wenn dieser Parameter auf NULL festgelegt ist, wird die Anzahl der verwendeten Threads basierend auf der Anzahl der für den Prozess verfügbaren logischen Prozessoren sowie der geringen Datendichte bestimmt. Legen Sie ihn auf 1 fest, um den Algorithmus in einem einzelnen Thread auszuführen.

convergenceTolerance

Gibt den Toleranzschwellenwert an, der als Konvergenzkriterium verwendet wird. Der Wert muss im Bereich 0 bis 1 liegen. Der Standardwert ist 0.1. Der Algorithmus gilt als konvergiert, wenn die relative Dualitätslücke, d. h. das Verhältnis zwischen Dualitätslücke und Primärverlust, unter die angegebene Konvergenztoleranz fällt.

maxIterations

Gibt eine Obergrenze für die Anzahl der Trainingsiterationen an. Dieser Parameter muss ein positiver Wert oder NULL sein. Falls NULL angegeben ist, wird der tatsächliche Wert automatisch basierend auf dem Dataset berechnet. Jede Iteration erfordert einen vollständigen Durchlauf durch die Trainingsdaten. Das Training endet, wenn die Gesamtanzahl der Iterationen die angegebene Obergrenze erreicht oder die Verlustfunktion konvergiert, je nachdem, was früher eintritt.

shuffle

Gibt an, ob die Trainingsdaten gemischt werden sollen. Legen Sie TRUE fest, um die Daten zu mischen, oder FALSE, um sie nicht zu mischen. Der Standardwert ist TRUE. SDCA ist ein stochastischer Optimierungsalgorithmus. Wenn Mischen aktiviert ist, werden die Trainingsdaten bei jeder Iteration gemischt.

checkFrequency

Die Anzahl der Iterationen, nach denen die Verlustfunktion berechnet und überprüft wird, ob sie konvergiert. Der angegebene Wert muss eine positive ganze Zahl oder NULL sein. Falls NULL, wird der tatsächliche Wert automatisch basierend auf dem Dataset berechnet. Andernfalls, z. B. bei Angabe von checkFrequency = 5, wird die Verlustfunktion berechnet, und Konvergenz wird alle 5 Iterationen überprüft. Die Berechnung der Verlustfunktion erfordert einen separaten vollständigen Durchlauf durch die Trainingsdaten.

...

Zusätzliche Argumente.