このトピックでは、WINDOWS ML を使用して CPU 上で ONNX モデルを実行するための最小限のパスについて説明し、準備ができたらハードウェア アクセラレーションを示します。
Windows ML の詳細については、「 Windows ML とは」を参照してください。
[前提条件]
- Windows アプリ SDK でサポートされている Windows のバージョン
- アーキテクチャ: x64 または ARM64
- 以下に示す言語固有の前提条件
- すべての Windows ML API を使用する .NET 8 以降
- .NET 6 では、
Microsoft.Windows.AI.MachineLearningAPI を使用して実行プロバイダーをインストールできますが、Microsoft.ML.OnnxRuntimeAPI を使用することはできません。
- .NET 6 では、
-
net8.0-windows10.0.17763.0以上など、Windows 10 固有の TFM を対象とする
手順 1: モデルを検索する
コードを記述する前に、ONNX モデルが必要です。 ONNX モデルの取得に関するガイダンスについては、 モデルの検索またはトレーニング を参照してください。
手順 2: Windows ML をインストールする
サポートされているすべての言語と展開モード (フレームワークに依存し、自己完結型) の完全な手順については、 Windows ML のインストールと展開 に関する記事を参照してください。
手順 3: 名前空間/ヘッダーを追加する
プロジェクトに Windows ML をインストールした後、使用する名前空間/ヘッダーに関するガイダンスについては、「 ONNX API の使用 」を参照してください。
手順 4: ONNX モデルを実行する
Windows ML をインストールすると、追加のセットアップなしで、CPU 上で ONNX モデルを実行できます。 ガイダンスについては、 ONNX モデルの実行 を参照してください。
この時点で、アプリには CPU 上に動作する推論パスがあります。
手順 5: 必要に応じて NPU または GPU で高速化する
NPU、GPU、または CPU での推論の高速化が必要ですか? ターゲット ハードウェアのハードウェアチューニング実行プロバイダーを追加するには、 AI モデルを高速化 する方法に関する説明を参照してください。
こちらも参照ください
- AI モデルの高速化 - NPU、GPU、または CPU 実行プロバイダーを追加する
- ONNX モデルの実行 - ONNX モデルの推論に関する情報
- Windows ML のインストールと展開 - Windows ML を使用してアプリを展開するためのオプション
- チュートリアル - ResNet-50 モデルで Windows ML を使用する完全なエンド ツー エンドのチュートリアル
- コード サンプル - Windows ML を使用したコード サンプル