共用方式為


ClassificationModels type

定義 ClassificationModel 的值。
KnownClassificationModels 可以與 ClassificationModels 交替使用,此列舉包含服務支援的已知值。

服務支援的已知值

羅吉斯回歸:羅吉斯回歸是基本的分類技術。 它屬於線性分類器群組,與多項式和線性回歸有些類似。 羅吉斯回歸快速且相對不複雜,而且方便您解譯結果。 雖然它基本上是二元分類的方法,但它也可以套用至多類別問題。
新元:新元:隨機梯度下降是機器學習應用程式中經常用來尋找模型參數的優化演算法,其對應到預測和實際輸出之間最適配。
MultinomialNaiveBayes:多項貝氏分類器適用於具有離散特徵的分類(例如文字分類的字數)。 多項分配通常需要整數特徵計數。 不過,實際上,tf-idf 之類的小數計數也可能正常運作。
BernoulliNaiveBayes:多變數伯努利模型的貝氏機率分類器。
SVM:支援向量機器 (SVM) 是一種受監督的機器學習模型,會針對兩組分類問題使用分類演算法。 為每個類別提供一組標示的定型數據 SVM 模型集之後,就可以將新文字分類。
LinearSVM:支援向量機器 (SVM) 是一種受監督的機器學習模型,會針對兩組分類問題使用分類演算法。 為每個類別提供一組標示的定型數據 SVM 模型集之後,就可以將新文字分類。 當輸入數據是線性時,線性 SVM 會執行最佳效能,亦即,在繪圖圖表上繪製分類值之間的直線,即可輕鬆地分類數據。
KNN:K 近鄰 (KNN) 演算法會使用「特徵相似度」來預測新數據點的值,這進一步表示會根據新數據點與定型集中的點相近程度來指派值。
DecisionTree:判定樹是用於分類和回歸工作的非參數監督式學習方法。 目標是建立模型,藉由學習從數據特徵推斷的簡單決策規則來預測目標變數的值。
RandomForest:隨機樹系是受監督式學習演算法。 它所建置的「樹系」是判定樹的合奏,通常採用「裝訂」方法進行訓練。 bagging 方法的一般概念是學習模型的組合會增加整體結果。
ExtremeRandomTrees:極端樹狀結構是結合許多判定樹預測的合奏機器學習演算法。 它與廣泛使用的隨機樹系演算法有關。
LightGBM:LightGBM 是使用樹狀結構式學習演算法的漸層提升架構。
GradientBoosting:將周學習者轉移至強式學習者的技術稱為「提升」。 漸層提升演算法程式適用於此執行理論。
XGBoostClassifier:XGBoost:極端漸層提升演算法。 此演算法用於結構化數據,其中目標數據行值可以分成不同的類別值。

type ClassificationModels = string