Windows ML を使用して Windows アプリに Machine Learning を実装します。Windows ML は、Windows デバイスにハードウェア アクセラレータ対応の ML 推論をデプロイするための信頼性の高い高パフォーマンス API です。
概要
Windows ML は、Windows 11、Windows 10、Windows Server 2022 Windows Server 2019 の最新バージョンに組み込まれており、Windows 8.1 にダウンレベルでアクセスするためにNuGet パッケージとしても利用できます。 Windows ML は、開発者に次の利点をもたらします。
開発の容易さ: Windows 11 と Windows Server 2022 の最新バージョンに組み込まれている Windows ML では、Visual Studio とトレーニング済みの ONNX モデルが必要です。これは Windows アプリケーションと共に配布できます。 また、AI ベースの機能を以前のバージョンの Windows (8.1 まで) に配信する必要がある場合は、アプリケーションと共に配布できる NuGet パッケージとして Windows ML を使用することもできます。
幅広いハードウェア サポート: Windows ML を使用することによって、ML ワークロードを 1 回記述すれば、さまざまなハードウェア ベンダーやハードウェアの種類 (CPU、GPU、AI アクセラレータなど) にわたって高度に最適化されたパフォーマンスを自動的に得ることができます。 さらに、Windows ML では、サポートされているすべてのハードウェアで一貫した動作が保証されます。
低遅延、リアルタイムで得られる結果: Windows デバイスの処理機能を使用して ML モデルを評価でき、画像やビデオなどの大きなデータ ボリュームをローカルでリアルタイムに分析できます。 分析結果は、ゲーム エンジンなどのパフォーマンスが集中するワークロードや、検索のインデックス作成などのバックグラウンド タスクですぐに効率的に使用できます。
柔軟性の向上: Windows デバイス上で ML モデルをローカルに評価するオプションを使用すると、幅広いシナリオに対処できます。 たとえば ML モデルの評価を、デバイスがオフラインになっているときや、接続が断続的になったときに実行できます。 また、プライバシーやデータの主権の問題により、すべてのデータをクラウドに送信できないシナリオに対処することもできます。
運用コストの削減: ML モデルは継続的な改善が必要な場合もあるため、ML モデルをクラウドでトレーニングし、Windows デバイスでローカルに評価すれば、最小限のデータのみがクラウドに送信されるため帯域幅コストが大幅に節約できます。 さらに、サーバー内に ML モデルを展開するシナリオでは、開発者は Windows ML ハードウェア アクセラレータを利用してモデル サービスを高速化することで、ワークロードを処理するために必要なマシンの数を減らすことができます。