KnownClassificationModels enum
Bekannte Werte von ClassificationModels, die der Dienst akzeptiert.
Felder
| BernoulliNaiveBayes | Naive Bayes Klassifizierer für multivariate Bernoulli-Modelle. |
| DecisionTree | Entscheidungsstrukturen sind eine nicht parametrische überwachte Lernmethode, die sowohl für Klassifizierungs- als auch Regressionsaufgaben verwendet wird. Ziel ist es, ein Modell zu erstellen, das den Wert einer Zielvariable vorhersagt, indem sie einfache Entscheidungsregeln erlernen, die von den Datenfeatures abgeleitet werden. |
| ExtremeRandomTrees | Extreme Trees ist ein Ensemble-Machine Learning-Algorithmus, der die Vorhersagen aus vielen Entscheidungsbäumen kombiniert. Sie bezieht sich auf den weit verbreiteten Zufallswaldalgorithmus. |
| GradientBoosting | Die Technik der Übertragung von Wochenlernern in einen starken Lernenden heißt Boost. Der Algorithmusprozess zur Farbverlaufsverhebung arbeitet an dieser Theorie der Ausführung. |
| KNN | Der K-nächste Nachbaralgorithmus (KNN) verwendet "Feature-Ähnlichkeit", um die Werte neuer Datenpunkte vorherzusagen, was weiter bedeutet, dass dem neuen Datenpunkt ein Wert zugewiesen wird, der darauf basiert, wie genau er den Punkten im Schulungssatz entspricht. |
| LightGBM | LightGBM ist ein Framework zur Farbverlaufssteigerung, das strukturbasierte Lernalgorithmen verwendet. |
| LinearSVM | Eine Unterstützungsvektormaschine (SVM) ist ein überwachtes Machine Learning-Modell, das Klassifizierungsalgorithmen für Zweigruppenklassifizierungsprobleme verwendet. Nachdem sie einen SVM-Modellsatz mit bezeichneten Schulungsdaten für jede Kategorie angegeben haben, können sie neuen Text kategorisieren. Lineare SVM-Leistung ist am besten, wenn Eingabedaten linear sind, d. h. Daten können leicht klassifiziert werden, indem sie die gerade Linie zwischen klassifizierten Werten in einem gezeichneten Diagramm zeichnen. |
| LogisticRegression | Logistische Regression ist eine grundlegende Klassifikationstechnik. Sie gehört zur Gruppe der linearen Klassifizierer und ähnelt etwas der polynomischen und linearen Regression. Logistische Regression ist schnell und relativ unkompliziert, und es ist bequem für Sie, die Ergebnisse zu interpretieren. Obwohl es im Wesentlichen eine Methode für die binäre Klassifizierung ist, kann sie auch auf Probleme mit mehreren Klassen angewendet werden. |
| MultinomialNaiveBayes | Der multinomiale Naive Bayes-Klassifizierer eignet sich für die Klassifizierung mit diskreten Merkmalen (z. B. Wortanzahl für die Textklassifizierung). Für die multinomiale Verteilung ist normalerweise eine ganzzahlige Funktionsanzahl erforderlich. In der Praxis können Bruchzahlen wie tf-idf jedoch auch funktionieren. |
| RandomForest | Zufällige Gesamtstruktur ist ein überwachter Lernalgorithmus. Der "Wald" baut, ist ein Ensemble von Entscheidungsbäumen, in der Regel trainiert mit der "Bagging"-Methode. Die allgemeine Idee der Bagging-Methode besteht darin, dass eine Kombination von Lernmodellen das Gesamtergebnis erhöht. |
| SGD | SGD: Stochastischer Farbverlaufsabstieg ist ein Optimierungsalgorithmus, der häufig in Machine Learning-Anwendungen verwendet wird, um die Modellparameter zu finden, die der besten Passform zwischen vorhergesagten und tatsächlichen Ausgaben entsprechen. |
| SVM | Eine Unterstützungsvektormaschine (SVM) ist ein überwachtes Machine Learning-Modell, das Klassifizierungsalgorithmen für Zweigruppenklassifizierungsprobleme verwendet. Nachdem sie einen SVM-Modellsatz mit bezeichneten Schulungsdaten für jede Kategorie angegeben haben, können sie neuen Text kategorisieren. |
| XGBoostClassifier | XGBoost: Extremer Farbverlaufs-Verstärkungsalgorithmus. Dieser Algorithmus wird für strukturierte Daten verwendet, bei denen Zielspaltenwerte in unterschiedliche Klassenwerte unterteilt werden können. |