次の方法で共有


2 クラス平均化パーセプトロン コンポーネント

この記事では Azure Machine Learning デザイナーのコンポーネントについて説明します。

平均化パーセプトロン アルゴリズムに基づいて機械学習モデルを作成するには、このコンポーネントを使用します。

この分類アルゴリズムは、教師あり学習手法であるため、ラベル列を含む "タグ付けされたデータセット" が必要となります。 モデルのトレーニングは、対象のモデルとタグ付けされたデータセットを "モデルのトレーニング" に入力として渡すことにより行うことができます。 その後は、トレーニング済みのモデルを使用して新しい入力例の値を予測することができます。

平均化パーセプトロン モデルについて

平均化パーセプトロンの手法は、ニューラル ネットワークの初期の単純なバージョンです。 この手法では、線形関数に基づいて入力がいくつかの可能な出力に分類され、特徴ベクターから得られる重みのセットと結合されます。このため、"パーセプトロン" と呼ばれます。

単純なパーセプトロン モデルは線形分離可能なパターンを学習するのに適しています。一方、ニューラル ネットワーク (特にディープ ニューラル ネットワーク) は、より複雑なクラス境界をモデル化できます。 ただし、パーセプトロンはより高速であり、ケースを順次処理するため、継続的なトレーニングで使用できます。

2 クラス平均化パーセプトロンの構成方法

  1. 2 クラス平均化パーセプトロン コンポーネントをパイプラインに追加します。

  2. [Create trainer mode]\(トレーナー モードの作成\) オプションを設定して、モデルのトレーニング方法を指定します。

    • Single Parameter (単一パラメーター) : モデルの構成方法を決めている場合は、特定の値のセットを引数として渡します。

    • [Parameter Range]\(パラメーター範囲\) : 最適なパラメーターがわからず、パラメーター スイープを実行する場合は、このオプションを選択します。 反復する値の範囲を選択します。モデルのハイパーパラメーターの調整では、指定した設定の可能なすべての組み合わせに対して反復処理を行い、最適な結果を生成するハイパーパラメーターを決定します。

  3. [Learning rate]\(学習速度\)学習速度の値を指定します。 学習速度の値は、モデルがテストされて修正される度に確率的勾配降下法で使用されるステップのサイズを制御します。

    速度の値を小さくすると、モデルのテストが頻繁に実行されますが、ローカルで停滞する可能性があります。 ステップのサイズを大きくすることで収束速度は速くなりますが、真の極小値から離れていってしまうおそれがあります。

  4. [Maximum number of iterations]\(イテレーションの最大数\) には、アルゴリズムによってトレーニング データを検証する回数を入力します。

    早く停止することで、より優れた一般化がもたらされる場合が多いです。 イテレーションの回数を増やすと適合が向上する反面、過剰適合のおそれがあります。

  5. [Random number seed]\(乱数シード\) には、必要に応じて、シードとして使用する整数値を入力します。 繰り返し実行したときのパイプラインの再現性を確保したい場合は、シードを使用することをお勧めします。

  6. トレーニング データセットを接続し、モデルをトレーニングします。

    Note

    パラメーター範囲を [モデルのトレーニング] に渡すと、単一のパラメーター リストの既定値のみが使用されます。

    [モデルのハイパーパラメーターの調整] コンポーネントによって、パラメーターごとに設定の範囲が求められているとき、それに単一のパラメーター値セットを渡した場合、それらの値は無視され、学習器の既定値が使用されます。

    [Parameter Range]\(パラメーター範囲\) オプションを選択し、任意のパラメーターに単一の値を入力した場合、指定した単一の値はスイープ全体で使用されます。これは、他のパラメーターが値の範囲の中で変化する場合でも同様です。

次のステップ

Azure Machine Learning で使用できる一連のコンポーネントを参照してください。