Freigeben über


KnownClassificationModels enum

Bekannte Werte von ClassificationModels , die der Dienst akzeptiert.

Felder

BernoulliNaiveBayes

Naive Bayes-Klassifizierer für multivariate Bernoulli-Modelle.

DecisionTree

Entscheidungsstrukturen sind eine nicht parametrische beaufsichtigte Lernmethode, die sowohl für Klassifizierungs- als auch Für Regressionsaufgaben verwendet wird. Das Ziel besteht darin, ein Modell zu erstellen, das den Wert einer Zielvariable vorhersagt, indem einfache Entscheidungsregeln gelernt werden, die aus den Datenfeatures abgeleitet werden.

ExtremeRandomTrees

Extreme Trees ist ein Ensemble-Algorithmus für maschinelles Lernen, der die Vorhersagen aus vielen Entscheidungsstrukturen kombiniert. Es steht im Zusammenhang mit dem weit verbreiteten Zufallsgesamtalgorithmus.

GradientBoosting

Die Technik der Übertragung von Wochenlernern in einen starken Lernenden heißt Boosting. Der Algorithmus zur Farbverlaufsaufhebung funktioniert auf dieser Ausführungstheorie.

KNN

Der KNN-Algorithmus (K-nearest neighbors) verwendet "Featureähnlichkeit", um die Werte neuer Datenpunkte vorherzusagen, was weiter bedeutet, dass dem neuen Datenpunkt ein Wert zugewiesen wird, basierend darauf, wie eng er den Punkten im Trainingssatz entspricht.

LightGBM

LightGBM ist ein Framework zur Farbverlaufssteigerung, das strukturbasierte Lernalgorithmen verwendet.

LinearSVM

Ein Support Vector Machine (SVM) ist ein überwachtes Machine Learning-Modell, das Klassifizierungsalgorithmen für Zweigruppenklassifizierungsprobleme verwendet. Nachdem sie einem SVM-Modellsatz beschriftete Trainingsdaten für jede Kategorie zugewiesen haben, können sie neuen Text kategorisieren. Lineare SVM funktioniert am besten, wenn Eingabedaten linear sind, d. h. Daten können leicht klassifiziert werden, indem die gerade Linie zwischen klassifizierten Werten in einem diagrammierten Diagramm gezeichnet wird.

LogisticRegression

Die logistische Regression ist eine grundlegende Klassifizierungsmethode. Es gehört zur Gruppe der linearen Klassifizierer und ähnelt der polynomalen und linearen Regression. Die logistische Regression ist schnell und relativ unkompliziert, und es ist bequem für Sie, die Ergebnisse zu interpretieren. Obwohl es sich im Wesentlichen um eine Methode für die binäre Klassifizierung handelt, kann sie auch auf Probleme mit mehreren Klassen angewendet werden.

MultinomialNaiveBayes

Der multinomielle Naive Bayes-Klassifizierer eignet sich für die Klassifizierung mit diskreten Merkmalen (z. B. Wortanzahlen für die Textklassifizierung). Für die multinomielle Verteilung sind normalerweise ganze Featureanzahlen erforderlich. In der Praxis können jedoch auch Bruchzahlen wie tf-idf funktionieren.

RandomForest

Zufällige Gesamtstruktur ist ein überwachter Lernalgorithmus. Der "Wald", den er aufbaut, ist ein Ensemble von Entscheidungsbäumen, die normalerweise mit der "Bagging"-Methode trainiert werden. Die allgemeine Idee der Bagging-Methode ist, dass eine Kombination von Lernmodellen das Gesamtergebnis erhöht.

SGD

SGD: Stochastischer Gradientenabstieg ist ein Optimierungsalgorithmus, der häufig in Machine Learning-Anwendungen verwendet wird, um die Modellparameter zu finden, die der besten Anpassung zwischen vorhergesagten und tatsächlichen Ausgaben entsprechen.

SVM

Ein Support Vector Machine (SVM) ist ein überwachtes Machine Learning-Modell, das Klassifizierungsalgorithmen für Zweigruppenklassifizierungsprobleme verwendet. Nachdem sie einem SVM-Modellsatz beschriftete Trainingsdaten für jede Kategorie zugewiesen haben, können sie neuen Text kategorisieren.

XGBoostClassifier

XGBoost: Extremer Algorithmus zur Farbverlaufssteigerung. Dieser Algorithmus wird für strukturierte Daten verwendet, bei denen Zielspaltenwerte in unterschiedliche Klassenwerte unterteilt werden können.