KnownRegressionModels enum
Valeurs connues de RegressionModels que le service accepte.
Champs
| DecisionTree | Les arbres de décision sont une méthode d’apprentissage supervisée non paramétrique utilisée pour les tâches de classification et de régression. L’objectif est de créer un modèle qui prédit la valeur d’une variable cible en apprenant des règles de décision simples déduites des fonctionnalités de données. |
| ElasticNet | Le net élastique est un type populaire de régression linéaire régulière qui combine deux pénalités populaires, en particulier les fonctions de pénalité L1 et L2. |
| ExtremeRandomTrees | Extreme Trees est un algorithme d’apprentissage automatique d’ensemble qui combine les prédictions de nombreux arbres de décision. Il est lié à l’algorithme de forêt aléatoire largement utilisé. |
| GradientBoosting | La technique de transit des apprenants de semaine dans un apprenant fort est appelée Boosting. Le processus d’algorithme de renforcement de dégradé fonctionne sur cette théorie de l’exécution. |
| KNN | L’algorithme K-nearest voisin (KNN) utilise la « similarité des caractéristiques » pour prédire les valeurs des nouveaux points de données, ce qui signifie que le nouveau point de données sera attribué une valeur en fonction de la façon dont il correspond aux points dans le jeu d’entraînement. |
| LassoLars | Le modèle Lasso s’adapte à la régression d’angle minimum a.k.a. Lars. Il s’agit d’un modèle linéaire entraîné avec un L1 antérieur comme normaliseur. |
| LightGBM | LightGBM est un framework de renforcement de dégradé qui utilise des algorithmes d’apprentissage basé sur des arborescences. |
| RandomForest | La forêt aléatoire est un algorithme d’apprentissage supervisé. La « forêt » qu’il construit est un ensemble d’arbres de décision, généralement formé avec la méthode « bagging ». L’idée générale de la méthode de bagging est qu’une combinaison de modèles d’apprentissage augmente le résultat global. |
| SGD | SGD : la descente de dégradé stochastique est un algorithme d’optimisation souvent utilisé dans les applications Machine Learning pour trouver les paramètres de modèle qui correspondent au meilleur ajustement entre les sorties prédites et réelles. C’est une technique inexacte mais puissante. |
| XGBoostRegressor | XGBoostRegressor : Extreme Gradient Boosting Regressor est un modèle machine learning supervisé à l’aide d’un ensemble d’apprenants de base. |