Compartilhar via


ClassificationModels type

Define valores para ClassificationModels.
KnownClassificationModels podem ser usados de forma intercambiável com ClassificationModels, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

LogisticRegression: A regressão logística é uma técnica de classificação fundamental. Ele pertence ao grupo de classificadores lineares e é um pouco semelhante à regressão polinomial e linear. A regressão logística é rápida e relativamente descomplicada e é conveniente interpretar os resultados. Embora seja essencialmente um método para classificação binária, ele também pode ser aplicado a problemas de várias classes.
SGD: SGD: descendente de gradiente stocástico é um algoritmo de otimização frequentemente usado em aplicativos de machine learning para localizar os parâmetros de modelo que correspondem ao melhor ajuste entre saídas previstas e reais.
MultinomialNaiveBayes: o classificador naive bayes multinomial é adequado para classificação com recursos discretos (por exemplo, contagens de palavras para classificação de texto). A distribuição multinomial normalmente requer contagens de recursos inteiros. No entanto, na prática, contagens fracionárias, como tf-idf, também podem funcionar.
BernoulliNaiveBayes: classificador Naive Bayes para modelos bernoulli multivariados.
SVM: um SVM (computador vetor de suporte) é um modelo de machine learning supervisionado que usa algoritmos de classificação para problemas de classificação de dois grupos. Depois de dar a um modelo SVM conjuntos de dados de treinamento rotulados para cada categoria, eles são capazes de categorizar o novo texto.
LinearSVM: um SVM (computador vetor de suporte) é um modelo de machine learning supervisionado que usa algoritmos de classificação para problemas de classificação de dois grupos. Depois de dar a um modelo SVM conjuntos de dados de treinamento rotulados para cada categoria, eles são capazes de categorizar o novo texto. A SVM Linear tem o melhor desempenho quando os dados de entrada são lineares, ou seja, os dados podem ser facilmente classificados desenhando a linha reta entre valores classificados em um grafo plotado.
KNN: o algoritmo KNN (vizinho K mais próximo) usa "similaridade de recurso" para prever os valores de novos pontos de dados, o que significa ainda que o novo ponto de dados receberá um valor com base na proximidade com que ele corresponde aos pontos no conjunto de treinamento.
DecisionTree: Árvores de Decisão são um método de aprendizado supervisionado não paramétrico usado para tarefas de classificação e regressão. A meta é criar um modelo que preveja o valor de uma variável de destino aprendendo regras de decisão simples inferidas dos recursos de dados.
RandomForest: a floresta aleatória é um algoritmo de aprendizado supervisionado. A "floresta" que ela constrói, é um conjunto de árvores de decisão, geralmente treinadas com o método "bagging". A ideia geral do método de ensacar é que uma combinação de modelos de aprendizagem aumenta o resultado geral.
ExtremeRandomTrees: Extreme Trees é um algoritmo de aprendizado de máquina de conjunto que combina as previsões de muitas árvores de decisão. Ele está relacionado ao algoritmo de floresta aleatória amplamente usado.
LightGBM: LightGBM é uma estrutura de aumento de gradiente que usa algoritmos de aprendizado baseados em árvore.
GradientBoosting: a técnica de transitar aprendizes de semana em um aprendiz forte é chamada de Boosting. O processo de algoritmo de aumento de gradiente funciona nessa teoria da execução.
XGBoostClassifier: XGBoost: algoritmo de aumento de gradiente extremo. Esse algoritmo é usado para dados estruturados em que os valores de coluna de destino podem ser divididos em valores de classe distintos.

type ClassificationModels = string