次の方法で共有


KnownRegressionModels enum

サービスが受け入れる RegressionModels の既知の値。

フィールド

DecisionTree

デシジョン ツリーは、分類タスクと回帰タスクの両方に使用されるノンパラメトリック教師あり学習方法です。 目標は、データ特徴から推論された単純な決定ルールを学習することによって、ターゲット変数の値を予測するモデルを作成することです。

ElasticNet

エラスティック ネットは、一般的な 2 つのペナルティ (特に L1 と L2 のペナルティ関数) を組み合わせた一般的なタイプの正則化線形回帰です。

ExtremeRandomTrees

Extreme Trees は、多くのデシジョン ツリーからの予測を組み合わせたアンサンブル機械学習アルゴリズムです。 これは、広く使用されているランダム フォレスト アルゴリズムに関連しています。

GradientBoosting

週の学習者を強力な学習者に転送する手法は、Boosting と呼ばれます。 勾配ブースティング アルゴリズム プロセスは、この実行理論に対して機能します。

KNN

K ニアレスト ネイバー (KNN) アルゴリズムは、"特徴類似性" を使用して新しいデータ ポイントの値を予測します。つまり、トレーニング セット内のポイントとどの程度一致するかに基づいて、新しいデータ ポイントに値が割り当てられることを意味します。

LassoLars

なげなわモデルは、最小角度回帰 (例: Lars) に適合します。 これは、正則化の前に L1 でトレーニングされた線形モデルです。

LightGBM

LightGBM は、ツリー ベースの学習アルゴリズムを使用する勾配ブースティング フレームワークです。

RandomForest

ランダム フォレストは、教師あり学習アルゴリズムです。 構築する "フォレスト" はデシジョン ツリーのアンサンブルであり、通常は "バギング" メソッドでトレーニングされます。 バギング方法の一般的な考え方は、学習モデルの組み合わせによって全体的な結果が増加することです。

SGD

SGD: 確率勾配降下法は、機械学習アプリケーションでよく使用される最適化アルゴリズムであり、予測出力と実際の出力の最適な適合に対応するモデル パラメーターを検索します。 これは、非具体的だが強力な手法です。

XGBoostRegressor

XGBoostRegressor: Extreme Gradient Boosting Regressor は、基本学習者のアンサンブルを使用した教師あり機械学習モデルです。