Udostępnij przez


KnownClassificationModels enum

Znane wartości ClassificationModels akceptowane przez usługę.

Pola

BernoulliNaiveBayes

Naiwny klasyfikator Bayesa dla wielowariancyjnych modeli Bernoulli.

DecisionTree

Drzewa decyzyjne to nieparametryczna metoda uczenia nadzorowanego używana zarówno do zadań klasyfikacji, jak i regresji. Celem jest utworzenie modelu, który przewiduje wartość zmiennej docelowej, ucząc się prostych reguł decyzyjnych wywnioskowanych z funkcji danych.

ExtremeRandomTrees

Extreme Trees to zespół algorytm uczenia maszynowego, który łączy przewidywania z wielu drzew decyzyjnych. Jest on związany z powszechnie używanym algorytmem lasu losowego.

GradientBoosting

Technika tranzytu tygodni uczniów do silnego ucznia jest nazywana Boosting. Proces algorytmu zwiększania gradientu działa na tej teorii wykonywania.

KNN

Algorytm K najbliższych sąsiadów (KNN) używa "podobieństwa funkcji" do przewidywania wartości nowych punktów danych, co dodatkowo oznacza, że nowy punkt danych zostanie przypisany wartość na podstawie tego, jak ściśle pasuje do punktów w zestawie treningowym.

LightGBM

LightGBM to struktura zwiększająca gradient, która korzysta z algorytmów uczenia opartego na drzewach.

LinearSVM

Maszyna wektorów nośnych (SVM) to nadzorowany model uczenia maszynowego, który używa algorytmów klasyfikacji dla problemów z klasyfikacją dwugrupową. Po podaniu zestawów modeli SVM oznaczonych danymi treningowym dla każdej kategorii są one w stanie kategoryzować nowy tekst. Liniowa maszyna wektorów nośnych działa najlepiej, gdy dane wejściowe są liniowe, tj. dane można łatwo sklasyfikować, rysując prostą linię między wartościami sklasyfikowanymi na wykresie wykreślonym.

LogisticRegression

Regresja logistyczna to podstawowa technika klasyfikacji. Należy do grupy klasyfikatorów liniowych i jest nieco podobny do regresji wielomianowej i liniowej. Regresja logistyczna jest szybka i stosunkowo nieskomplikowana i jest wygodna w interpretowaniu wyników. Chociaż jest to zasadniczo metoda klasyfikacji binarnej, można ją również zastosować do problemów wieloklasowych.

MultinomialNaiveBayes

Wielomianowy klasyfikator Bayesa nadaje się do klasyfikacji z dyskretnymi cechami (np. liczba wyrazów do klasyfikacji tekstu). Rozkład wielomianowy zwykle wymaga liczb całkowitych. Jednak w praktyce liczba ułamkowa, taka jak tf-idf, może również działać.

RandomForest

Las losowy to algorytm uczenia nadzorowanego. "Las", który buduje, jest zespołem drzew decyzyjnych, zwykle wyszkolonych za pomocą metody "bagging". Ogólną ideą metody baggingu jest to, że kombinacja modeli uczenia zwiększa ogólny wynik.

SGD

SGD: Spadek gradientu stochastycznego jest algorytmem optymalizacji często używanym w aplikacjach uczenia maszynowego do znajdowania parametrów modelu, które odpowiadają najlepszemu dopasowaniu między przewidywanymi i rzeczywistymi danymi wyjściowymi.

SVM

Maszyna wektorów nośnych (SVM) to nadzorowany model uczenia maszynowego, który używa algorytmów klasyfikacji dla problemów z klasyfikacją dwugrupową. Po podaniu zestawów modeli SVM oznaczonych danymi treningowym dla każdej kategorii są one w stanie kategoryzować nowy tekst.

XGBoostClassifier

XGBoost: ekstremalny algorytm zwiększania gradientu. Ten algorytm jest używany w przypadku danych strukturalnych, w których wartości kolumn docelowych można podzielić na odrębne wartości klas.