Windows ML の使い始め方

このトピックでは、WINDOWS ML を使用して CPU 上で ONNX モデルを実行するための最小限のパスについて説明し、準備ができたらハードウェア アクセラレーションを示します。

Windows ML の詳細については、「 Windows ML とは」を参照してください。

[前提条件]

  • すべての Windows ML API を使用する .NET 8 以降
    • .NET 6 では、 Microsoft.Windows.AI.MachineLearning API を使用して実行プロバイダーをインストールできますが、 Microsoft.ML.OnnxRuntime API を使用することはできません。
  • net8.0-windows10.0.17763.0以上など、Windows 10 固有の TFM を対象とする

手順 1: モデルを検索する

コードを記述する前に、ONNX モデルが必要です。 ONNX モデルの取得に関するガイダンスについては、 モデルの検索またはトレーニング を参照してください。

手順 2: Windows ML をインストールする

サポートされているすべての言語と展開モード (フレームワークに依存し、自己完結型) の完全な手順については、 Windows ML のインストールと展開 に関する記事を参照してください。

手順 3: 名前空間/ヘッダーを追加する

プロジェクトに Windows ML をインストールした後、使用する名前空間/ヘッダーに関するガイダンスについては、「 ONNX API の使用 」を参照してください。

手順 4: ONNX モデルを実行する

Windows ML をインストールすると、追加のセットアップなしで、CPU 上で ONNX モデルを実行できます。 ガイダンスについては、 ONNX モデルの実行 を参照してください。

この時点で、アプリには CPU 上に動作する推論パスがあります。

手順 5: 必要に応じて NPU または GPU で高速化する

NPU、GPU、または CPU での推論の高速化が必要ですか? ターゲット ハードウェアのハードウェアチューニング実行プロバイダーを追加するには、 AI モデルを高速化 する方法に関する説明を参照してください。

こちらも参照ください