ClassificationModels type
Define valores para ClassificationModels.
KnownClassificationModels podem ser usados de forma intercambiável com ClassificationModels, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.
Valores conhecidos compatíveis com o serviço
LogisticRegression: A regressão logística é uma técnica de classificação fundamental.
Ele pertence ao grupo de classificadores lineares e é um pouco semelhante à regressão polinomial e linear.
A regressão logística é rápida e relativamente descomplicada e é conveniente interpretar os resultados.
Embora seja essencialmente um método para classificação binária, ele também pode ser aplicado a problemas de várias classes.
SGD: SGD: descendente de gradiente stocástico é um algoritmo de otimização frequentemente usado em aplicativos de machine learning para localizar os parâmetros de modelo que correspondem ao melhor ajuste entre saídas previstas e reais.
MultinomialNaiveBayes: o classificador naive bayes multinomial é adequado para classificação com recursos discretos (por exemplo, contagens de palavras para classificação de texto).
A distribuição multinomial normalmente requer contagens de recursos inteiros. No entanto, na prática, contagens fracionárias, como tf-idf, também podem funcionar.
BernoulliNaiveBayes: classificador Naive Bayes para modelos bernoulli multivariados.
SVM: um SVM (computador vetor de suporte) é um modelo de machine learning supervisionado que usa algoritmos de classificação para problemas de classificação de dois grupos.
Depois de dar a um modelo SVM conjuntos de dados de treinamento rotulados para cada categoria, eles são capazes de categorizar o novo texto.
LinearSVM: um SVM (computador vetor de suporte) é um modelo de machine learning supervisionado que usa algoritmos de classificação para problemas de classificação de dois grupos.
Depois de dar a um modelo SVM conjuntos de dados de treinamento rotulados para cada categoria, eles são capazes de categorizar o novo texto.
A SVM Linear tem o melhor desempenho quando os dados de entrada são lineares, ou seja, os dados podem ser facilmente classificados desenhando a linha reta entre valores classificados em um grafo plotado.
KNN: o algoritmo KNN (vizinho K mais próximo) usa "similaridade de recurso" para prever os valores de novos pontos de dados, o que significa ainda que o novo ponto de dados receberá um valor com base na proximidade com que ele corresponde aos pontos no conjunto de treinamento.
DecisionTree: Árvores de Decisão são um método de aprendizado supervisionado não paramétrico usado para tarefas de classificação e regressão.
A meta é criar um modelo que preveja o valor de uma variável de destino aprendendo regras de decisão simples inferidas dos recursos de dados.
RandomForest: a floresta aleatória é um algoritmo de aprendizado supervisionado.
A "floresta" que ela constrói, é um conjunto de árvores de decisão, geralmente treinadas com o método "bagging".
A ideia geral do método de ensacar é que uma combinação de modelos de aprendizagem aumenta o resultado geral.
ExtremeRandomTrees: Extreme Trees é um algoritmo de aprendizado de máquina de conjunto que combina as previsões de muitas árvores de decisão. Ele está relacionado ao algoritmo de floresta aleatória amplamente usado.
LightGBM: LightGBM é uma estrutura de aumento de gradiente que usa algoritmos de aprendizado baseados em árvore.
GradientBoosting: a técnica de transitar aprendizes de semana em um aprendiz forte é chamada de Boosting. O processo de algoritmo de aumento de gradiente funciona nessa teoria da execução.
XGBoostClassifier: XGBoost: algoritmo de aumento de gradiente extremo. Esse algoritmo é usado para dados estruturados em que os valores de coluna de destino podem ser divididos em valores de classe distintos.
type ClassificationModels = string