Freigeben über


ClassificationModels type

Definiert Werte für ClassificationModels.
KnownClassificationModels kann austauschbar mit ClassificationModels verwendet werden. Diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Vom Dienst unterstützte bekannte Werte

LogisticRegression: Die logistische Regression ist ein grundlegendes Klassifizierungsverfahren. Es gehört zur Gruppe der linearen Klassifizierer und ähnelt der polynomalen und linearen Regression. Die logistische Regression ist schnell und relativ unkompliziert, und es ist bequem für Sie, die Ergebnisse zu interpretieren. Obwohl es sich im Wesentlichen um eine Methode für die binäre Klassifizierung handelt, kann sie auch auf Probleme mit mehreren Klassen angewendet werden.
SGD: Stochastischer Gradientenabstieg ist ein Optimierungsalgorithmus, der häufig in Machine Learning-Anwendungen verwendet wird, um die Modellparameter zu finden, die der besten Anpassung zwischen vorhergesagten und tatsächlichen Ausgaben entsprechen.
MultinomialNaiveBayes: Der multinomielle Naive Bayes-Klassifizierer eignet sich für die Klassifizierung mit diskreten Merkmalen (z. B. Wortanzahlen für die Textklassifizierung). Für die multinomielle Verteilung sind normalerweise ganze Featureanzahlen erforderlich. In der Praxis können jedoch auch Bruchzahlen wie tf-idf funktionieren.
BernoulliNaiveBayes: Naive Bayes-Klassifizierer für multivariate Bernoulli-Modelle.
SVM: Ein Support Vector Machine (SVM) ist ein überwachtes Machine Learning-Modell, das Klassifizierungsalgorithmen für Zweigruppenklassifizierungsprobleme verwendet. Nachdem sie einem SVM-Modellsatz beschriftete Trainingsdaten für jede Kategorie zugewiesen haben, können sie neuen Text kategorisieren.
LinearSVM: Ein Support Vector Machine (SVM) ist ein überwachtes Machine Learning-Modell, das Klassifizierungsalgorithmen für Zweigruppenklassifizierungsprobleme verwendet. Nachdem sie einem SVM-Modellsatz beschriftete Trainingsdaten für jede Kategorie zugewiesen haben, können sie neuen Text kategorisieren. Lineare SVM funktioniert am besten, wenn Eingabedaten linear sind, d. h. Daten können leicht klassifiziert werden, indem die gerade Linie zwischen klassifizierten Werten in einem diagrammierten Diagramm gezeichnet wird.
KNN: Der KNN-Algorithmus (K-nearest neighbors) verwendet "Featureähnlichkeit", um die Werte neuer Datenpunkte vorherzusagen, was weiter bedeutet, dass dem neuen Datenpunkt ein Wert zugewiesen wird, basierend darauf, wie eng er den Punkten im Trainingssatz entspricht.
DecisionTree: Entscheidungsstrukturen sind eine nicht parametrische beaufsichtigte Lernmethode, die sowohl für Klassifizierungs- als auch Regressionsaufgaben verwendet wird. Das Ziel besteht darin, ein Modell zu erstellen, das den Wert einer Zielvariable vorhersagt, indem einfache Entscheidungsregeln gelernt werden, die aus den Datenfeatures abgeleitet werden.
RandomForest: Random Forest ist ein beaufsichtigter Lernalgorithmus. Der "Wald", den er aufbaut, ist ein Ensemble von Entscheidungsbäumen, die normalerweise mit der "Bagging"-Methode trainiert werden. Die allgemeine Idee der Bagging-Methode ist, dass eine Kombination von Lernmodellen das Gesamtergebnis erhöht.
ExtremeRandomTrees: Extreme Trees ist ein Ensemble-Algorithmus für maschinelles Lernen, der die Vorhersagen aus vielen Entscheidungsstrukturen kombiniert. Es steht im Zusammenhang mit dem weit verbreiteten Zufallsgesamtalgorithmus.
LightGBM: LightGBM ist ein Framework zur Farbverlaufssteigerung, das strukturbasierte Lernalgorithmen verwendet.
GradientBoosting: Die Technik der Übertragung von Wochenlernern in einen starken Lernenden heißt Boosting. Der Algorithmus zur Farbverlaufsaufhebung funktioniert auf dieser Ausführungstheorie.
XGBoostClassifier: XGBoost: Extreme Gradient Boosting Algorithmus. Dieser Algorithmus wird für strukturierte Daten verwendet, bei denen Zielspaltenwerte in unterschiedliche Klassenwerte unterteilt werden können.

type ClassificationModels = string