Freigeben über


ClassificationModels type

Definiert Werte für ClassificationModels.
KnownClassificationModels austauschbar mit ClassificationModels verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

LogisticsRegression: Logistische Regression ist eine grundlegende Klassifizierungstechnik. Sie gehört zur Gruppe der linearen Klassifizierer und ähnelt etwas der polynomischen und linearen Regression. Logistische Regression ist schnell und relativ unkompliziert, und es ist bequem für Sie, die Ergebnisse zu interpretieren. Obwohl es im Wesentlichen eine Methode für die binäre Klassifizierung ist, kann sie auch auf Probleme mit mehreren Klassen angewendet werden.
SGD: SGD: Stochastischer Farbverlaufsabstieg ist ein Optimierungsalgorithmus, der häufig in Machine Learning-Anwendungen verwendet wird, um die Modellparameter zu finden, die der besten Passform zwischen vorhergesagten und tatsächlichen Ausgaben entsprechen.
MultinomialNaiveBayes: Der Multinomial Naive Bayes Klassifizierer eignet sich für die Klassifizierung mit diskreten Merkmalen (z. B. Wortanzahl für die Textklassifizierung). Für die multinomiale Verteilung ist normalerweise eine ganzzahlige Funktionsanzahl erforderlich. In der Praxis können Bruchzahlen wie tf-idf jedoch auch funktionieren.
BernoulliNaiveBayes: Naive Bayes Klassifizierer für multivariate Bernoulli-Modelle.
SVM: Eine Unterstützungsvektormaschine (SVM) ist ein überwachtes Machine Learning-Modell, das Klassifizierungsalgorithmen für Zweigruppenklassifizierungsprobleme verwendet. Nachdem sie einen SVM-Modellsatz mit bezeichneten Schulungsdaten für jede Kategorie angegeben haben, können sie neuen Text kategorisieren.
LinearSVM-: Eine Unterstützungsvektormaschine (SVM) ist ein überwachtes Machine Learning-Modell, das Klassifizierungsalgorithmen für Zweigruppenklassifizierungsprobleme verwendet. Nachdem sie einen SVM-Modellsatz mit bezeichneten Schulungsdaten für jede Kategorie angegeben haben, können sie neuen Text kategorisieren. Lineare SVM-Leistung ist am besten, wenn Eingabedaten linear sind, d. h. Daten können leicht klassifiziert werden, indem sie die gerade Linie zwischen klassifizierten Werten in einem gezeichneten Diagramm zeichnen.
KNN-: K-nearest neighbors (KNN)-Algorithmus verwendet "Feature-Ähnlichkeit", um die Werte neuer Datenpunkte vorherzusagen, was weiter bedeutet, dass dem neuen Datenpunkt ein Wert zugewiesen wird, der darauf basiert, wie genau er mit den Punkten im Trainingssatz übereinstimmt.
DecisionTree: Decision Trees sind eine nicht parametrische überwachte Lernmethode, die sowohl für Klassifizierungs- als auch Regressionsaufgaben verwendet wird. Ziel ist es, ein Modell zu erstellen, das den Wert einer Zielvariable vorhersagt, indem sie einfache Entscheidungsregeln erlernen, die von den Datenfeatures abgeleitet werden.
RandomForest: Zufällige Gesamtstruktur ist ein überwachter Lernalgorithmus. Der "Wald" baut, ist ein Ensemble von Entscheidungsbäumen, in der Regel trainiert mit der "Bagging"-Methode. Die allgemeine Idee der Bagging-Methode besteht darin, dass eine Kombination von Lernmodellen das Gesamtergebnis erhöht.
ExtremeRandomTrees: Extreme Trees ist ein Ensemble-Machine Learning-Algorithmus, der die Vorhersagen aus vielen Entscheidungsbäumen kombiniert. Sie bezieht sich auf den weit verbreiteten Zufallswaldalgorithmus.
LightGBM: LightGBM ist ein Framework zur Farbverlaufssteigerung, das strukturbasierte Lernalgorithmen verwendet.
GradientBoosting: Die Technik der Übertragung von Wochenlernern in einen starken Lernenden heißt Boost. Der Algorithmusprozess zur Farbverlaufsverhebung arbeitet an dieser Theorie der Ausführung.
XGBoostClassifier: XGBoost: Extreme Gradient Boost Algorithm. Dieser Algorithmus wird für strukturierte Daten verwendet, bei denen Zielspaltenwerte in unterschiedliche Klassenwerte unterteilt werden können.

type ClassificationModels = string