Foundry Local を使用すると、Microsoft Foundry on Windowsの一部として、Windows デバイスで大規模な言語モデル (LLM) を直接ローカルで実行できます。 これは、Windows AI API では利用できない AI シナリオを深く掘り下けて実装する場合に適した代替手段です。
このデバイス上の AI 推論ソリューションは、クラウドベースの代替手段と比較して、プライバシー、カスタマイズ、およびコスト上の利点を提供します。 何より、使いやすい CLI と REST API を使用して、既存のワークフローとアプリケーションに適合します。
Note
Foundry Local の完全なドキュメント (インストール、モデル管理、REST API、SDK リファレンスなど) は、Azure AI Foundry ドキュメントで管理されています。 下のリンクをクリックすると移動します。 ブラウザーの [戻る] ボタンまたは階層リンクを使用して、いつでも Windows AI ドキュメントに戻れます。
Foundry Local がシナリオに適しているか不明な場合は、Windows AI ソリューションの選択 を参照のうえ、続行してください。
Foundry Local の詳細については、 Foundry Local のドキュメントを参照してください。