次の方法で共有


Windows ML のモデルを検索またはトレーニングする

Windows ML は単に ONNX ランタイムとハードウェア固有の実行プロバイダーを提供する配布メカニズムであるため、Windows ML は ONNX 形式モデルで動作します。 つまり、さまざまなソースから何百万もの既存の事前トレーニング済みモデルを使用したり、独自のモデルをトレーニングしたりできます。 このガイドでは、ONNX モデルを検索、変換、トレーニングする場所について説明します。

オプション 詳細
1. AI ツールキットからモデルを使用する AI Toolkit の変換ツールを使用して Windows ML で使用するためにすぐに最適化できる 20 以上の OSS モデル (LLM やその他の種類のモデルを含む) から選択する
2. 他の既存の ONNX モデルを使用する Hugging Face やその他のソースから 30,000 以上の 事前トレーニング済みの ONNX モデル を参照する
3. 既存のモデルを ONNX 形式に変換する 2,400,000 以上の 事前トレーニング済みの PyTorch/TensorFlow/etc モデルを Hugging Face やその他のソースから参照し、ONNX に変換します
4. 既存モデルの微調整 2,400,000 以上の 事前トレーニング済みの PyTorch/TensorFlow/etc モデルを Hugging Face やその他のソースから取得し、あなたのシナリオに合うように微調整して、ONNX 形式に変換します。
5. モデルのトレーニング PyTorch、TensorFlow、またはその他のフレームワークで独自のモデルをトレーニングし、ONNX に変換する

Windows ML を介して実行される Windows 上の Microsoft Foundry では、すぐに使用できる数十の AI モデルと API から選択することもできます。 詳細については、「 Windows 上の Microsoft Foundry でローカル AI を使用 する」を参照してください。

オプション 1: AI Toolkit からモデルを使用する

AI Toolkit の変換ツールを使用すると、Windows ML で使用できるようにすぐに最適化できる多数の LLM やその他の種類のモデルがあります。 AI Toolkit を使用してモデルを取得すると、Windows ML が実行されるさまざまなハードウェアに最適化された変換された ONNX モデルが得られます。

使用可能なモデルを参照するには、 AI ツールキットのモデル一覧を参照してください

オプション 2: 他の既存の ONNX モデルを使用する

Hugging Face は、Windows ML で使用できる数千の ONNX モデルをホストしています。 ONNX モデルは次の方法で見つけることができます。

  1. Hugging Face Model Hub の閲覧
  2. ライブラリ フィルターの "ONNX" によるフィルター処理

使用している Windows ML のバージョンに含まれている ONNX ランタイム バージョンと互換性のあるモデルを見つける必要があります。 Windows ML で使用している ONNX ランタイムのバージョンについては、Windows ML に付属している ONNX ランタイムのバージョンを参照してください。

オプション 3: 既存のモデルを ONNX 形式に変換する

PyTorch、TensorFlow、またはその他のフレームワークのモデルは、ONNX 形式に変換し、Windows ML で使用できます。

Hugging Face は、Windows ML で変換して使用できる何百万ものモデルをホストしています。

使用している Windows ML のバージョンに含まれている ONNX ランタイム バージョンで実行するようにモデルを変換する必要があります。 Windows ML で使用している ONNX ランタイムのバージョンについては、Windows ML に付属している ONNX ランタイムのバージョンを参照してください。

モデルを ONNX 形式に変換するには、フレームワーク固有のドキュメントを参照してください。次に例を示します。

オプション 4: 既存のモデルを微調整する

Hugging Face やその他のソースの多くのモデルを微調整できます (Hugging Face のモデル カードの手順に従ってください)。 その後、上記のオプション 3 の手順に従って、微調整されたモデルを ONNX に変換できます。

モデルを微調整する一般的な方法は、 olive finetune コマンドを使用することです。 Olive の使用の詳細については、 Olive のドキュメント を参照してください。

オプション 5: モデルをトレーニングする

特定のタスクのモデルが必要で、既存のモデルが見つからない場合は、PyTorch、TensorFlow、またはその他のフレームワークで独自のモデルをトレーニングできます。

モデルをトレーニングしたら、上記のオプション 3 の手順に従って、モデルを ONNX 形式に変換します。

次のステップ

ONNX モデルを作成したら、ターゲット デバイスで Windows ML で実行できます。

他のソリューション

Windows 上の Microsoft Foundry の一部として、Windows ML 経由で実行されるすぐに使用できる AI モデルと API の数十から選択することもできます。 詳細については、「 Windows 上の Microsoft Foundry でローカル AI を使用 する」を参照してください。