Partager via


KnownClassificationModels enum

Valeurs connues de ClassificationModels que le service accepte.

Champs

BernoulliNaiveBayes

Classifieur Naive Bayes pour les modèles Bernoulli multivariés.

DecisionTree

Les arbres de décision sont une méthode d’apprentissage supervisée non paramétrique utilisée pour les tâches de classification et de régression. L’objectif est de créer un modèle qui prédit la valeur d’une variable cible en apprenant des règles de décision simples déduites des fonctionnalités de données.

ExtremeRandomTrees

Extreme Trees est un algorithme d’apprentissage automatique d’ensemble qui combine les prédictions de nombreux arbres de décision. Il est lié à l’algorithme de forêt aléatoire largement utilisé.

GradientBoosting

La technique de transit des apprenants de semaine dans un apprenant fort est appelée Boosting. Le processus d’algorithme de renforcement de dégradé fonctionne sur cette théorie de l’exécution.

KNN

L’algorithme K-nearest voisin (KNN) utilise la « similarité des caractéristiques » pour prédire les valeurs des nouveaux points de données, ce qui signifie que le nouveau point de données sera attribué une valeur en fonction de la façon dont il correspond aux points dans le jeu d’entraînement.

LightGBM

LightGBM est un framework de renforcement de dégradé qui utilise des algorithmes d’apprentissage basé sur des arborescences.

LinearSVM

Une machine vectorielle de prise en charge (SVM) est un modèle Machine Learning supervisé qui utilise des algorithmes de classification pour les problèmes de classification à deux groupes. Après avoir donné des ensembles de modèles SVM de données d’entraînement étiquetées pour chaque catégorie, ils sont en mesure de catégoriser un nouveau texte. La machine virtuelle SVM linéaire fonctionne le mieux lorsque les données d’entrée sont linéaires, c’est-à-dire que les données peuvent être facilement classées en dessinant la ligne droite entre les valeurs classifiées sur un graphique tracé.

LogisticRegression

La régression logistique est une technique de classification fondamentale. Il appartient au groupe de classifieurs linéaires et est un peu similaire à la régression polynomiale et linéaire. La régression logistique est rapide et relativement complexe, et il est pratique d’interpréter les résultats. Bien qu’il s’agit essentiellement d’une méthode de classification binaire, elle peut également être appliquée aux problèmes multiclasses.

MultinomialNaiveBayes

Le classifieur Naive Bayes multinomial convient à la classification avec des caractéristiques discrètes (par exemple, le nombre de mots pour la classification de texte). La distribution multinomiale nécessite normalement des nombres de fonctionnalités entières. Toutefois, dans la pratique, les nombres fractionnaires tels que tf-idf peuvent également fonctionner.

RandomForest

La forêt aléatoire est un algorithme d’apprentissage supervisé. La « forêt » qu’il construit est un ensemble d’arbres de décision, généralement formé avec la méthode « bagging ». L’idée générale de la méthode de bagging est qu’une combinaison de modèles d’apprentissage augmente le résultat global.

SGD

SGD : la descente de dégradé stochastique est un algorithme d’optimisation souvent utilisé dans les applications Machine Learning pour trouver les paramètres de modèle qui correspondent au meilleur ajustement entre les sorties prédites et réelles.

SVM

Une machine vectorielle de prise en charge (SVM) est un modèle Machine Learning supervisé qui utilise des algorithmes de classification pour les problèmes de classification à deux groupes. Après avoir donné des ensembles de modèles SVM de données d’entraînement étiquetées pour chaque catégorie, ils sont en mesure de catégoriser un nouveau texte.

XGBoostClassifier

XGBoost : Algorithme d’optimisation de dégradé extrême. Cet algorithme est utilisé pour les données structurées où les valeurs de colonne cible peuvent être divisées en valeurs de classe distinctes.