ClassificationModels type

Definierar värden för ClassificationModels.
KnownClassificationModels kan användas utbytbart med ClassificationModels innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

LogisticRegression: Logistic regression är en grundläggande klassificeringsteknik. Den tillhör gruppen linjära klassificerare och liknar polynom och linjär regression. Logistisk regression är snabb och relativt okomplicerad, och det är praktiskt att tolka resultaten. Även om det i princip är en metod för binär klassificering kan den också tillämpas på problem med flera klasser.
SGD: SGD: Stochastic gradient descent är en optimeringsalgoritm som ofta används i maskininlärningsprogram för att hitta de modellparametrar som motsvarar den bästa passformen mellan förutsagda och faktiska utdata.
MultinomialNaiveBayes: Den multinomiska Naive Bayes-klassificeraren är lämplig för klassificering med diskreta funktioner (t.ex. ordantal för textklassificering). Multinomfördelningen kräver normalt antal heltalsfunktioner. I praktiken kan dock bråktal som tf-idf också fungera.
BernoulliNaiveBayes: Naive Bayes-klassificerare för Bernoulli-modeller med flera varianter.
SVM: En stödvektormaskin (SVM) är en övervakad maskininlärningsmodell som använder klassificeringsalgoritmer för klassificeringsproblem med två grupper. När du har gett en SVM-modelluppsättningar med märkta träningsdata för varje kategori kan de kategorisera ny text.
LinearSVM: En stödvektormaskin (SVM) är en övervakad maskininlärningsmodell som använder klassificeringsalgoritmer för klassificeringsproblem med två grupper. När du har gett en SVM-modelluppsättningar med märkta träningsdata för varje kategori kan de kategorisera ny text. Linjär SVM fungerar bäst när indata är linjära, dvs. data kan enkelt klassificeras genom att rita den raka linjen mellan klassificerade värden i ett ritat diagram.
KNN-: K-närmaste grannalgoritm (KNN) använder "funktionslikhet" för att förutsäga värdena för nya datapunkter, vilket ytterligare innebär att den nya datapunkten tilldelas ett värde baserat på hur nära den matchar punkterna i träningsuppsättningen.
DecisionTree: Decision Trees är en icke-parametrisk övervakad inlärningsmetod som används för både klassificerings- och regressionsaktiviteter. Målet är att skapa en modell som förutsäger värdet för en målvariabel genom att lära sig enkla beslutsregler som härleds från datafunktionerna.
RandomForest: Random forest är en övervakad inlärningsalgoritm. Den "skog" som den bygger, är en ensemble av beslutsträd, vanligtvis tränad med metoden "påse". Den allmänna idén med påse-metoden är att en kombination av inlärningsmodeller ökar det övergripande resultatet.
ExtremeRandomTrees: Extreme Trees är en maskininlärningsalgoritm för ensembler som kombinerar förutsägelserna från många beslutsträd. Den är relaterad till den ofta använda slumpmässiga skogsalgoritmen.
LightGBM: LightGBM är ett gradient-boostramverk som använder trädbaserade inlärningsalgoritmer.
GradientBoosting: Tekniken för att föra över veckas elever till en stark elev kallas Förstärkning. Algoritmprocessen för toningshöjande fungerar på den här körningsteorin.
XGBoostClassifier: XGBoost: Algoritm för extrem toningsförstärktning. Den här algoritmen används för strukturerade data där målkolumnvärden kan delas in i distinkta klassvärden.

type ClassificationModels = string