Partager via


fastLinear : fastLinear

Crée une liste contenant le nom et les arguments de la fonction pour effectuer l’apprentissage d’un modèle linéaire rapide avec rxEnsemble.

Utilisation

  fastLinear(lossFunction = NULL, l2Weight = NULL, l1Weight = NULL,
    trainThreads = NULL, convergenceTolerance = 0.1, maxIterations = NULL,
    shuffle = TRUE, checkFrequency = NULL, ...)
 

Arguments

lossFunction

Spécifie la fonction de perte empirique à optimiser. Pour la classification binaire, les choix suivants sont disponibles :

  • logLoss : la perte logarithmique. Il s’agit de la valeur par défaut.
  • hingeLoss : la perte de charnière SVM. Son paramètre représente la taille de la marge.
  • smoothHingeLoss : la perte de charnière lissée. Son paramètre représente la constante de lissage.
    Pour la régression linéaire, la perte au carré squaredLoss est actuellement prise en charge. Lorsque ce paramètre est défini sur NULL, sa valeur par défaut dépend du type d'apprentissage :
  • logLoss pour la classification binaire.
  • squaredLoss pour la régression linéaire.

l2Weight

Spécifie la pondération de la régularisation L2. La valeur doit être soit non négative, soit NULL. Si NULL est spécifié, la valeur réelle est automatiquement calculée en fonction du jeu de données. NULL est la valeur par défaut.

l1Weight

Spécifie la pondération de la régularisation L1. La valeur doit être soit non négative, soit NULL. Si NULL est spécifié, la valeur réelle est automatiquement calculée en fonction du jeu de données. NULL est la valeur par défaut.

trainThreads

Spécifie le nombre de threads simultanés qui peuvent être utilisés pour exécuter l'algorithme. Lorsque ce paramètre est défini sur NULL, le nombre de threads utilisés est déterminé en fonction du nombre de processeurs logiques disponibles pour le processus, ainsi que de la densité des données. Définissez-le sur 1 pour exécuter l'algorithme dans un seul thread.

convergenceTolerance

Spécifie le seuil de tolérance utilisé comme critère de convergence. Il doit être compris entre 0 et 1. La valeur par défaut est 0.1. L'algorithme est considéré comme ayant convergé si le saut de dualité relatif, qui correspond au rapport entre le saut de dualité et la perte du primal, passe en dessous de la tolérance de convergence spécifiée.

maxIterations

Spécifie une limite supérieure pour le nombre d'itérations d'apprentissage. Ce paramètre doit être positif ou NULL. Si NULL est spécifié, la valeur réelle est automatiquement calculée en fonction du jeu de données. Chaque itération nécessite un passage complet sur les données d'apprentissage. L'apprentissage se termine lorsque le nombre total d'itérations atteint la limite supérieure spécifiée ou lorsque la fonction de perte converge, selon la première éventualité.

shuffle

Spécifie si les données d'apprentissage doivent être mélangées. Spécifiez TRUE pour mélanger les données ou FALSE pour ne pas les mélanger. La valeur par défaut est TRUE. SDCA est un algorithme d'optimisation stochastique. Si la lecture aléatoire est activée, les données d'apprentissage sont mélangées à chaque itération.

checkFrequency

Nombre d'itérations après lesquelles la fonction de perte est calculée et vérifiée pour déterminer si elle a convergé. La valeur spécifiée doit être un nombre entier positif ou NULL. Si NULL est spécifié, la valeur réelle est automatiquement calculée en fonction du jeu de données. Sinon, par exemple, si checkFrequency = 5 est spécifié, la fonction de perte est calculée et la convergence est vérifiée toutes les 5 itérations. Le calcul de la fonction de perte nécessite un passage complet distinct sur les données d'apprentissage.

...

Arguments supplémentaires.