次の方法で共有


推論用の事前構築済み Docker イメージ

推論用の事前構築済みの Docker コンテナー イメージは、Azure Machine Learning でモデルをデプロイする際に使用します。 これらのイメージは、一般的な機械学習フレームワークと Python パッケージを使用して事前に構築されています。 また、次のいずれかの方法を使用して、パッケージを拡張して他のパッケージを追加することもできます。

事前構築済みのイメージを使用する理由

  • モデル デプロイの待ち時間が短縮される
  • モデル デプロイの成功率が向上する
  • モデル デプロイ時に不要なイメージのビルドを回避する
  • 必要な依存関係とアクセス権のみをイメージ/コンテナーに含められる

推論用の事前構築済み Docker イメージの一覧

重要

次の表に示す一覧には、Azure Machine Learning が現在サポートしている推論 Docker イメージのみが含まれています。

  • すべての Docker イメージは、非ルート ユーザーとして実行されます。
  • Docker イメージには latest タグを使うことをお勧めします。 推論用に事前に構築された Docker イメージは、Microsoft コンテナー レジストリ (MCR) で公開されます。 使用できるタグの一覧を照会する方法については、MCR GitHub リポジトリを参照してください。
  • 推論 Docker イメージに特定のタグを使う場合、Azure Machine Learning では、latest から latest より "6 か月" 前の範囲のタグがサポートされています。

推論の最小基本イメージ

Framework のバージョン CPU/GPU 事前インストール済みパッケージ MCR パス
NA CPU NA mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest
NA GPU NA mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest
NA CPU NA mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest
NA GPU NA mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest

Note

Azure Machine Learning では、キュレーションされた環境がサポートされています。 キュレーションされた環境を参照し、Tags: Inferencing のフィルターを追加できます。