Windows ML とは

Windows ML は、 ONNX Runtime を利用した、Windows 用の統合および高パフォーマンスのローカル AI 推論フレームワークです。 Windows ML を使用すると、WINDOWS が管理および最新の状態を維持するオプションの実行プロバイダーを使用して、AI モデルをローカルで実行し、NPU、GPU、および CPU での推論を高速化できます。 PyTorch、TensorFlow/Keras、TFLite、scikit-learn、およびその他のフレームワークのモデルを Windows ML で使用できます。

A WINDOWS ML を経由して NPU、GPU、および CPU に到達する ONNX モデルを示す図。

主な利点

Windows ML を使用すると、任意の Windows アプリに AI 推論を簡単に取り込めます。

  • デバイス上で AI を実行 する — モデルはユーザーのハードウェア上でローカルに実行され、データをプライベートに保ち、クラウド コストを排除し、インターネットに接続せずに動作します。
  • 既に持っているモデルを使用ーPyTorch、TensorFlow、scikit-learn、Hugging Face などからモデルを持ち込むことができます。
  • Windows によって促進されるハードウェア アクセラレーション — Windows ML では、Windows Update を介して Windows がインストールして最新の状態に保つ実行プロバイダーを介して IHV 固有の NPU、GPU、および CPU にアクセスできます。アプリに実行プロバイダーをバンドルする必要はありません。
  • 1 つのランタイム、多くのアプリ — Windows ML を共有システムコンポーネントとしてオプションで使用することで、アプリはコンパクトに保たれ、デバイス上のすべてのアプリが最新のランタイムを共有し、それぞれのアプリが独自のコピーをバンドルせずに済みます。
  • クラス最高のパフォーマンス — Windows ML は、RTX 用 TensorRT や Qualcomm の AI Engine Direct などの専用 SDK と同等に、NPU と GPU で金属に対するパフォーマンスを実現します。

Microsoft ORT の代わりに Windows ML を使用する理由

Windows ML は、システム全体のコピーまたは自己完結型として使用できる、Windows でサポートされ保守されている ONNX Runtime (ORT) のコピーです。

  • 同じ ONNX API - 既存の ONNX ランタイム コードに変更はありません
  • Windows でサポートされる — Windows チームによってサポートおよび保守されています
  • 広範なハードウェア サポート — 任意のハードウェア構成で Windows PC (x64 および ARM64) および Windows Server 上で実行されます
  • オプションの小さいアプリ サイズ — フレームワークに依存するデプロイを選択し、独自のコピーをバンドルするのではなく、アプリ間でランタイムを共有します
  • オプションの常緑更新プログラム - フレームワークに依存する展開を選択し、ユーザーは常に Windows Update 経由で最新のランタイムを取得します

さらに、Windows ML を使用すると、アプリに実行プロバイダーを含めて異なるハードウェア用に個別のビルドを作成することなく、最新の実行プロバイダーを動的に取得してAIモデルの動作を加速できます。

「Windows ML の使用を開始して自分で試す」を参照してください。

NPU、GPU、および CPU でのハードウェア アクセラレーション

Windows ML を使用すると、最新の Windows PC に存在する 3 つのシリコン クラスで推論を高速化できる実行プロバイダーにアクセスできます。

  • NPU — バッテリ効率に優れ、デバイス上で持続的な推論が可能で、Copilot+ PC で最も強力な NPU を使用できます
  • GPU — 画像、ビデオ、生成 AI などの高スループットのワークロード。一般に、ディスクリート GPU で最大のパフォーマンスを提供します
  • CPU — ユニバーサル フォールバックと IHV 最適化 CPU アクセラレーション

シリコンからEPへのマッピング、EPのドライバー要件、及びEP調達オプションについては、「AIモデルの高速化」を参照してください。

システム要件

CPU と GPU (DirectML 経由) のサポートは、サポートされているすべてのWindows バージョンで利用できます。 NPU および特定の GPU ハードウェア用のハードウェア最適化実行プロバイダーには、Windows 11 バージョン 24H2 (ビルド 26100) 以上が必要です。 詳細については、「 Windows ML 実行プロバイダー」を参照してください。

パフォーマンスの最適化

最新バージョンの Windows ML は GPU と NPU の専用実行プロバイダーと直接連携し、過去の専用 SDK (RTX 用 TensorRT、AI エンジン ダイレクト、PyTorch 用 Intel の拡張機能など) と同等のパフォーマンスを実現します。 IHV 固有の SDK を配布するアプリを必要とせずに、クラス最高の GPU と NPU のパフォーマンスを実現するように Windows ML を設計しました。

モデルを ONNX に変換する

モデルを他の形式から ONNX に変換して、Windows ML で使用できます。 詳細については、foundry Toolkit for Visual Studio Codeのドキュメントで、モデルを ONNX 形式に<>変換する方法を参照してください。 PyTorch、TensorFlow、Hugging Face モデルを ONNX に変換する方法の詳細については、 ONNX ランタイム チュートリアル も参照してください。

モデルの分布

Windows ML には、AI モデルを配布するための柔軟なオプションが用意されています。

  • アプリ間でモデルを共有 する - 大きなファイルをバンドルすることなく、CDN からアプリ間でモデルを動的にダウンロードして共有する
  • ローカル モデル - アプリケーション パッケージにモデル ファイルを直接含める

Windows AI エコシステムとの統合

Windows ML は、より広範なWindows AI プラットフォームの基盤として機能します。

  • Windows AI API - 一般的なタスク用の組み込みモデル
  • Foundry Local - すぐに使用できる AI モデル
  • Custom モデル - 高度なシナリオにWindows ML API への直接アクセス

フィードバックの提供

問題が見つかったか、または提案がありますか? Windows App SDK GitHubで問題を検索または作成します。

次のステップ