次の方法で共有


Azure Machine Learning CLI、SDK、REST API を使用してモデルをトレーニングする

適用対象:Azure CLI ml extension v2 (現行)Python SDK azure-ai-ml v2 (現行)

Azure Machine Learning には、ML トレーニング ジョブを送信する複数の方法が用意されています。 この記事では、次の方法を使用してジョブを送信する方法について説明します:

  • 機械学習用の Azure CLI 拡張機能: CLI v2 とも呼ばれる ml拡張機能。
  • Azure Machine Learning 用Python SDK v2。
  • REST API: CLI と SDK が構築されている API。

前提条件

SDK 情報を使用するには、Azure Machine Learning SDK v2 for Pythonをインストールします。

examples リポジトリをクローンします

この記事のコード スニペットは、Azure Machine Learning の GitHub リポジトリの例に基づいています。 リポジトリを開発環境に複製するには、次のコマンドを使用します:

git clone --depth 1 https://github.com/Azure/azureml-examples

ヒント

--depth 1 を使用すると、リポジトリに対する最新のコミットだけが複製されるので、操作の完了にかかる時間を短縮できます。

サンプル ジョブ

この記事の例では、iris フラワー データセットを使用して MLFlow モデルをトレーニングします。

クラウドでトレーニングする

クラウドでトレーニングを行う場合は、Azure Machine Learning ワークスペースに接続し、トレーニング ジョブの実行に使用するコンピューティング リソースを選択する必要があります。

1. ワークスペースに接続する

ヒント

以下のタブを使って、モデルのトレーニングに使用する方法を選択します。 タブを選択すると、この記事のすべてのタブが同じタブに自動的に切り替わります。いつでも別のタブを選択できます。

ワークスペースに接続するには、識別子パラメーター (サブスクリプション、リソース グループ、ワークスペース名) が必要です。 これらの詳細を azure.ai.ml 名前空間の MLClient で使用して、必要な Azure Machine Learning ワークスペースへのハンドルを取得します。 認証には、既定の Azure 認証を使用します。 資格情報を構成してワークスペースに接続する方法の詳細については、こちらのを参照してください。

#import required libraries
from azure.ai.ml import MLClient
from azure.identity import DefaultAzureCredential

#Enter details of your Azure Machine Learning workspace
subscription_id = '<SUBSCRIPTION_ID>'
resource_group = '<RESOURCE_GROUP>'
workspace = '<AZUREML_WORKSPACE_NAME>'

#connect to the workspace
ml_client = MLClient(DefaultAzureCredential(), subscription_id, resource_group, workspace)

2. トレーニング用のコンピューティング リソースを作成する

Note

サーバーレス コンピューティングを試すには、この手順をスキップし、「3.トレーニング ジョブの送信」に進みます。

Azure Machine Learning コンピューティング クラスターは、トレーニング ジョブの実行に使用できるフル マネージドコンピューティング リソースです。 次の例では、cpu-computeと名づけられた コンピューティング クラスターが作成されます。

from azure.ai.ml.entities import AmlCompute

# specify aml compute name.
cpu_compute_target = "cpu-cluster"

try:
    ml_client.compute.get(cpu_compute_target)
except Exception:
    print("Creating a new cpu compute target...")
    compute = AmlCompute(
        name=cpu_compute_target, size="STANDARD_D2_V2", min_instances=0, max_instances=4
    )
    ml_client.compute.begin_create_or_update(compute).result()

3.トレーニング ジョブの送信

このスクリプトを実行するには、./sdk/python/jobs/single-step/lightgbm/iris/src/ の下にある Python スクリプト main.py を実行する command を使用します。 このコマンドは、それを job として Azure Machine Learning に送信することによって実行されます。

Note

サーバーレス コンピューティングを使用するには、このコードで compute="cpu-cluster" を削除します。

from azure.ai.ml import command, Input

# define the command
command_job = command(
    code="./src",
    command="python main.py --iris-csv ${{inputs.iris_csv}} --learning-rate ${{inputs.learning_rate}} --boosting ${{inputs.boosting}}",
    environment="AzureML-lightgbm-3.2-ubuntu18.04-py37-cpu@latest",
    inputs={
        "iris_csv": Input(
            type="uri_file",
            path="https://azuremlexamples.blob.core.windows.net/datasets/iris.csv",
        ),
        "learning_rate": 0.9,
        "boosting": "gbdt",
    },
    compute="cpu-cluster",
)
# submit the command
returned_job = ml_client.jobs.create_or_update(command_job)
# get a URL for the status of the job
returned_job.studio_url

上記の例では、次の構成を行いました:

  • code - コマンドを実行するコードが配置されているパス
  • command - 実行する必要があるコマンド
  • environment - トレーニングスクリプトを実行するため必要な環境。 この例では、AzureML-lightgbm-3.2-ubuntu18.04-py37-cpu と呼ばれる Azure Machine Learning によって提供されるキュレーション済みまたは既製の環境を使用します。 @latest ディレクティブを使用して、この環境の最新バージョンを使用します。 また、ベース Docker イメージを指定し、その上に conda yaml を指定することで、カスタム環境を使用することもできます。
  • inputs - 名前と値のペアを使用した、コマンドへの入力のディクショナリ。 キーは、ジョブのコンテキスト内の入力の名前であり、値は入力値です。 入力は、${{inputs.<input_name>}} 式を使用して command で参照されます。 ファイルやフォルダーを入力として使用するには、Input クラスを使用できます。 詳細については、「SDK と CLI v2 式」を参照してください。

詳しくは、リファレンスドキュメント をご覧ください。

ジョブを送信すると、Azure Machine Learning スタジオのジョブの状態に URL が返されます。 スタジオ UI を使用して、ジョブの進行状況を表示します。 ジョブの現在の状態を確認するためにも returned_job.statusを使用できます。

トレーニングされたモデルを登録します

次の例では、Azure Machine Learning ワークスペースにモデルを登録する方法が示されています。

ヒント

トレーニング ジョブによって返される name プロパティは、モデルへのパスの一部として使用されます。

from azure.ai.ml.entities import Model
from azure.ai.ml.constants import AssetTypes

run_model = Model(
    path="azureml://jobs/{}/outputs/artifacts/paths/model/".format(returned_job.name),
    name="run-model-example",
    description="Model created from run.",
    type=AssetTypes.MLFLOW_MODEL
)

ml_client.models.create_or_update(run_model)

次の手順

トレーニング済みのモデルを作成したら、 オンライン エンドポイントを使用してモデルをデプロイする方法について説明します。

その他の例については、Azure Machine Learning の例で GitHub リポジトリを参照してください。

この記事で使用する Azure CLI コマンド、Python SDK クラス、または REST API の詳細については、次のリファレンス ドキュメントを参照してください: