KnownClassificationModels enum
Известные значения ClassificationModels, которые служба принимает.
Поля
| BernoulliNaiveBayes | Наивный классификатор Байеса для многовариантных моделей Бернулли. |
| DecisionTree | Деревья принятия решений — это непараметрический защищенный метод обучения, используемый как для задач классификации, так и регрессии. Цель — создать модель, которая предсказывает значение целевой переменной, изучая простые правила принятия решений, полученные из функций данных. |
| ExtremeRandomTrees | Экстремальные деревья — это алгоритм машинного обучения ансамбля, который объединяет прогнозы из многих деревьев принятия решений. Он связан с широко используемым алгоритмом случайного леса. |
| GradientBoosting | Метод транзита недельных учащихся в сильный учащийся называется Повышение. Процесс повышения градиента работает над этой теорией выполнения. |
| KNN | Алгоритм K-ближайших соседей (KNN) использует "сходство признаков" для прогнозирования значений новых точек данных, что означает, что новая точка данных будет назначена значение на основе того, насколько тесно он соответствует точкам в обучающем наборе. |
| LightGBM | LightGBM — это градиентная платформа повышения, которая использует алгоритмы обучения на основе дерева. |
| LinearSVM | Векторная машина поддержки (SVM) — это контролируемая модель машинного обучения, которая использует алгоритмы классификации для проблем классификации двух групп. После предоставления наборов моделей SVM помеченных обучающих данных для каждой категории они смогут классифицировать новый текст. Линейный SVM лучше всего выполняется, если входные данные являются линейными, т. е. данные можно легко классифицировать путем рисования прямой линии между классифицированными значениями на графике. |
| LogisticRegression | Логистическая регрессия является основным методом классификации. Она принадлежит группе линейных классификаторов и несколько похожа на полиномиальную и линейную регрессию. Логистическая регрессия быстро и относительно несложна, и удобно интерпретировать результаты. Хотя это, по сути, метод двоичной классификации, он также может применяться к проблемам с несколькими классами. |
| MultinomialNaiveBayes | Многономиальный классификатор Байеса подходит для классификации с дискретными функциями (например, число слов для классификации текста). Для многономного распределения обычно требуются целые числа функций. Однако на практике дробное число, например tf-idf, также может работать. |
| RandomForest | Случайный лес — это защищенный алгоритм обучения. "лес" он строит, является ансамблем деревьев принятия решений, как правило, обучен с помощью метода "bagging". Общая идея метода мешка заключается в том, что сочетание моделей обучения увеличивает общий результат. |
| SGD | ГРАДиентный градиентный градиент — это алгоритм оптимизации, часто используемый в приложениях машинного обучения для поиска параметров модели, которые соответствуют оптимальному расположению между прогнозируемыми и фактическими выходными данными. |
| SVM | Векторная машина поддержки (SVM) — это контролируемая модель машинного обучения, которая использует алгоритмы классификации для проблем классификации двух групп. После предоставления наборов моделей SVM помеченных обучающих данных для каждой категории они смогут классифицировать новый текст. |
| XGBoostClassifier | XGBoost: алгоритм повышения градиента. Этот алгоритм используется для структурированных данных, где целевые значения столбцов можно разделить на отдельные значения классов. |