Windows 上の Microsoft Foundry には、Windows アプリケーションに統合できる、すぐに使用できる複数のローカル L 言語モデル (LLM) が用意されています。
すぐに使用できる LLM
アプリでは、次のローカル LLM を 1 時間以内に簡単に使用できます。 LLM の配布は Microsoft によって処理され、モデルはアプリ間で共有されます。 これらの LLM を使用すると、数行のコードしか必要とされません。ML の専門知識は必要とされません。
| それはなんですか | サポートされているデバイス | Docs | |
|---|---|---|---|
| Phi Silica | Windows エクスペリエンスで使用されているのと同じデバイス内 LLM | Copilot+ PC (NPU) | 詳細情報 |
| 20 以上のオープンソース LLM | 20 以上の利用可能な OSS LLM モデルから選択する | Windows 10 以降 (パフォーマンスは異なり、すべてのデバイスで使用可能なすべてのモデルではありません) |
詳細情報 |
ローカル LLM を微調整する
上記のすぐに使用できる LLM がシナリオで機能しない場合は、シナリオに合わせて LLM を微調整できます。 このオプションでは、トレーニング データセットを微調整するための作業がいくつか必要ですが、独自のモデルをトレーニングする場合よりも少ない作業です。
- Phi Silica: 始めるには、LoRA Fine-Tuning for Phi Silica を参照してください。
ハギングフェイスやその他のソースからLLMを使用する
Hugging Face やその他のソースからさまざまな LLM を使用し、Windows ML を使用して Windows 10 以降の PC でローカルに実行できます (モデルの互換性とパフォーマンスはデバイスのハードウェアによって異なります)。 このオプションは複雑になる可能性があり、すぐに使用できるローカル LLM と比較して時間がかかる場合があります。
詳細については、 Windows ML で使用するモデルの検索またはトレーニング に関するページを参照してください。