Поделиться через


KnownClassificationModels enum

Известные значения ClassificationModels, которые служба принимает.

Поля

BernoulliNaiveBayes

Наивный классификатор Байеса для многовариантных моделей Бернулли.

DecisionTree

Деревья принятия решений — это непараметрический защищенный метод обучения, используемый как для задач классификации, так и регрессии. Цель — создать модель, которая предсказывает значение целевой переменной, изучая простые правила принятия решений, полученные из функций данных.

ExtremeRandomTrees

Экстремальные деревья — это алгоритм машинного обучения ансамбля, который объединяет прогнозы из многих деревьев принятия решений. Он связан с широко используемым алгоритмом случайного леса.

GradientBoosting

Метод транзита недельных учащихся в сильный учащийся называется Повышение. Процесс повышения градиента работает над этой теорией выполнения.

KNN

Алгоритм K-ближайших соседей (KNN) использует "сходство признаков" для прогнозирования значений новых точек данных, что означает, что новая точка данных будет назначена значение на основе того, насколько тесно он соответствует точкам в обучающем наборе.

LightGBM

LightGBM — это градиентная платформа повышения, которая использует алгоритмы обучения на основе дерева.

LinearSVM

Векторная машина поддержки (SVM) — это контролируемая модель машинного обучения, которая использует алгоритмы классификации для проблем классификации двух групп. После предоставления наборов моделей SVM помеченных обучающих данных для каждой категории они смогут классифицировать новый текст. Линейный SVM лучше всего выполняется, если входные данные являются линейными, т. е. данные можно легко классифицировать путем рисования прямой линии между классифицированными значениями на графике.

LogisticRegression

Логистическая регрессия является основным методом классификации. Она принадлежит группе линейных классификаторов и несколько похожа на полиномиальную и линейную регрессию. Логистическая регрессия быстро и относительно несложна, и удобно интерпретировать результаты. Хотя это, по сути, метод двоичной классификации, он также может применяться к проблемам с несколькими классами.

MultinomialNaiveBayes

Многономиальный классификатор Байеса подходит для классификации с дискретными функциями (например, число слов для классификации текста). Для многономного распределения обычно требуются целые числа функций. Однако на практике дробное число, например tf-idf, также может работать.

RandomForest

Случайный лес — это защищенный алгоритм обучения. "лес" он строит, является ансамблем деревьев принятия решений, как правило, обучен с помощью метода "bagging". Общая идея метода мешка заключается в том, что сочетание моделей обучения увеличивает общий результат.

SGD

ГРАДиентный градиентный градиент — это алгоритм оптимизации, часто используемый в приложениях машинного обучения для поиска параметров модели, которые соответствуют оптимальному расположению между прогнозируемыми и фактическими выходными данными.

SVM

Векторная машина поддержки (SVM) — это контролируемая модель машинного обучения, которая использует алгоритмы классификации для проблем классификации двух групп. После предоставления наборов моделей SVM помеченных обучающих данных для каждой категории они смогут классифицировать новый текст.

XGBoostClassifier

XGBoost: алгоритм повышения градиента. Этот алгоритм используется для структурированных данных, где целевые значения столбцов можно разделить на отдельные значения классов.