推論用の事前構築済み Docker イメージ
推論用の事前構築済みの Docker コンテナー イメージは、Azure Machine Learning でモデルをデプロイする際に使用します。 これらのイメージは、一般的な機械学習フレームワークと Python パッケージを使用して事前に構築されています。 また、次のいずれかの方法を使用して、パッケージを拡張して他のパッケージを追加することもできます。
事前構築済みのイメージを使用する理由
- モデル デプロイの待ち時間が短縮される
- モデル デプロイの成功率が向上する
- モデル デプロイ時に不要なイメージのビルドを回避する
- 必要な依存関係とアクセス権のみをイメージ/コンテナーに含められる
推論用の事前構築済み Docker イメージの一覧
重要
次の表に示す一覧には、Azure Machine Learning が現在サポートしている推論 Docker イメージのみが含まれています。
- すべての Docker イメージは、非ルート ユーザーとして実行されます。
- Docker イメージには
latest
タグを使うことをお勧めします。 推論用に事前に構築された Docker イメージは、Microsoft コンテナー レジストリ (MCR) で公開されます。 使用できるタグの一覧を照会する方法については、MCR GitHub リポジトリを参照してください。 - 推論 Docker イメージに特定のタグを使う場合、Azure Machine Learning では、
latest
からlatest
より "6 か月" 前の範囲のタグがサポートされています。
推論の最小基本イメージ
Framework のバージョン | CPU/GPU | 事前インストール済みパッケージ | MCR パス |
---|---|---|---|
NA | CPU | NA | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest |
NA | GPU | NA | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest |
NA | CPU | NA | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest |
NA | GPU | NA | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest |
Note
Azure Machine Learning では、キュレーションされた環境がサポートされています。 キュレーションされた環境を参照し、Tags: Inferencing
のフィルターを追加できます。