Windows ML は ONNX ランタイムとハードウェア固有の実行プロバイダーの Windows でサポートされるディストリビューションであるため、Windows ML は ONNX 形式モデルで動作します。 つまり、さまざまなソースから何百万もの既存の事前トレーニング済みモデルを使用したり、独自のモデルをトレーニングしたりできます。 このガイドでは、ONNX モデルを検索、変換、トレーニングする場所について説明します。
Windows ML の詳細については、「 Windows ML とは」を参照してください。
| オプション | 詳細 |
|---|---|
| 1. Foundry Toolkit からモデルを使用する | |
| 2. 他の既存の ONNX モデルを使用する | Hugging Face やその他のソースから 30,000 以上の 事前トレーニング済みの ONNX モデル を参照する |
| 3. 既存のモデルを ONNX 形式に変換する | 2,400,000 以上の 事前トレーニング済みの PyTorch/TensorFlow/etc モデルを Hugging Face やその他のソースから参照し、ONNX に変換します |
| 4. 既存モデルの微調整 | 2,400,000 以上の 事前トレーニング済みの PyTorch/TensorFlow/etc モデルを Hugging Face やその他のソースから取得し、あなたのシナリオに合うように微調整して、ONNX 形式に変換します。 |
| 5. モデルのトレーニング | PyTorch、TensorFlow、またはその他のフレームワークで独自のモデルをトレーニングし、ONNX に変換する |
Microsoft Foundry on Windows では、すぐに使用できる多数の AI モデルと API から選択することもできます。これは、Windows ML 経由で実行されます。 詳細については、「
オプション 1: Foundry Toolkit のモデルを使用する
Foundry Toolkit の変換ツールでは、WINDOWS ML で使用するためにすぐに最適化できる多数の LLM やその他の種類のモデルがあります。 Foundry Toolkit を使用してモデルを取得すると、Windows ML が実行されるさまざまなハードウェアに最適化された ONNX モデルに変換されたものを取得できます。
使用可能なモデルを参照するには、 Foundry Toolkit のモデルリストを参照してください。
オプション 2: 他の既存の ONNX モデルを使用する
Hugging Face は、Windows ML で使用できる数千の ONNX モデルをホストします。 ONNX モデルは次の方法で見つけることができます。
使用している Windows ML のバージョンに含まれている ONNX ランタイム バージョンと互換性のあるモデルを見つける必要があります。 Windows ML で使用している ONNX Runtime のバージョンを確認するには、Windows ML に付属する ONNX Runtime のバージョンを参照してください。
オプション 3: 既存のモデルを ONNX 形式に変換する
PyTorch、TensorFlow、またはその他のフレームワークのモデルは、ONNX 形式に変換し、Windows ML で使用できます。
Hugging Face は、Windows ML で変換して使用できる何百万ものモデルをホストします。
使用しているWindows MLのバージョンに含まれているONNX ランタイム バージョンで実行するように、モデルを変換する必要があります。 Windows ML で使用している ONNX Runtime のバージョンを確認するには、Windows ML に付属する ONNX Runtime のバージョンを参照してください。
モデルを ONNX 形式に変換するには、フレームワーク固有のドキュメントを参照してください。次に例を示します。
オプション 4: 既存のモデルを微調整する
Hugging Face やその他のソースの多くのモデルを微調整できます (Hugging Face のモデル カードの手順に従ってください)。 その後、上記のオプション 3 の手順に従って、微調整されたモデルを ONNX に変換できます。
モデルを微調整する一般的な方法は、 olive finetune コマンドを使用することです。 Olive の使用の詳細については、 Olive のドキュメント を参照してください。
オプション 5: モデルをトレーニングする
特定のタスクのモデルが必要で、既存のモデルが見つからない場合は、PyTorch、TensorFlow、またはその他のフレームワークで独自のモデルをトレーニングできます。
モデルをトレーニングしたら、上記のオプション 3 の手順に従って、モデルを ONNX 形式に変換します。
次のステップ
ONNX モデルを作成したら、ターゲット デバイスで Windows ML を使用して実行できます。
- Windows ML EP のインストール - Windows ML で実行プロバイダーをダウンロードしてインストールする
- RUN ONNX モデル - Windows ML で推論を実行する方法について説明します
他のソリューション
Windows上の Microsoft Foundry の一部として、すぐに使用できる数十の AI モデルと API から選択することもできます。これは、Windows ML 経由で実行されます。 詳細については、「