Partager via


RegressionModels type

Définit des valeurs pour RegressionModels.
Les knownRegressionModels peuvent être utilisés indifféremment avec RegressionModels. Cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

ElasticNet : le filet élastique est un type populaire de régression linéaire régularisée qui combine deux pénalités populaires, en particulier les fonctions de pénalité L1 et L2.
GradientBoosting : la technique du transit des apprenants de la semaine vers un apprenant fort s’appelle Boosting. Le processus d’algorithme de renforcement de gradient fonctionne sur cette théorie de l’exécution.
DecisionTree : les arbres de décision sont une méthode d’apprentissage supervisée non paramétrique utilisée pour les tâches de classification et de régression. L’objectif est de créer un modèle qui prédit la valeur d’une variable cible en apprenant des règles de décision simples déduites à partir des fonctionnalités de données.
KNN : L’algorithme K-nearest neighbors (KNN) utilise la « similarité des caractéristiques » pour prédire les valeurs des nouveaux points de données, ce qui signifie en outre que le nouveau point de données se verra attribuer une valeur en fonction de la proximité avec les points du jeu d’entraînement.
LassoLars : le modèle Lasso s’adapte à la régression d’angle minimal, c’est-à-dire Lars. Il s’agit d’un modèle linéaire entraîné avec un L1 antérieur comme régularisateur.
SGD : SGD : la descente de gradient stochastique est un algorithme d’optimisation souvent utilisé dans les applications machine learning pour rechercher les paramètres de modèle qui correspondent au meilleur ajustement entre les sorties prédites et réelles. C’est une technique imprécise mais puissante.
RandomForest : la forêt aléatoire est un algorithme d’apprentissage supervisé. La « forêt » qu’il construit, est un ensemble d’arbres de décision, généralement entraînés avec la méthode « ensachage ». L’idée générale de la méthode d’ensachage est qu’une combinaison de modèles d’apprentissage augmente le résultat global.
ExtremeRandomTrees : Extreme Trees est un algorithme d’apprentissage automatique d’ensemble qui combine les prédictions de nombreux arbres de décision. Il est lié à l’algorithme de forêt aléatoire largement utilisé.
LightGBM : LightGBM est une infrastructure de renforcement de gradient qui utilise des algorithmes d’apprentissage basés sur des arborescences.
XGBoostRegressor : XGBoostRegressor : Extreme Gradient Boosting Regressor est un modèle de Machine Learning supervisé utilisant un ensemble d’apprenants de base.

type RegressionModels = string