次の方法で共有


WebNN の概要

Web ニューラル ネットワーク (WebNN) API は、WEB アプリとフレームワークが GPU、CPU、または NPU などの専用の AI アクセラレータを使用してディープ ニューラル ネットワークを高速化できるようにする新しい Web 標準です。 WebNN API は、Windows 上の DirectML API を利用してネイティブ ハードウェア機能にアクセスし、ニューラル ネットワーク モデルの実行を最適化します。

アプリでの AI/ML の使用が一般的になるにつれて、WebNN API には次の利点があります。

  • パフォーマンスの最適化 – DirectML を利用することで、WebNN は、複雑でプラットフォーム固有のコードを必要とせずに、Web アプリとフレームワークが各プラットフォームとデバイスに最適なハードウェアとソフトウェアの最適化を利用できるようにします。
  • 低待機時間 - ブラウザー内推論を使用すると、リモート サーバーにデータを送信して応答を待つ必要なく、リアルタイムのビデオ分析、顔検出、音声認識などのローカル メディア ソースで新しいユース ケースを実現できます。
  • プライバシーの保持 - Web アプリやフレームワークでは、処理のために機密情報や個人情報をクラウド サービスにアップロードする必要がないように、ユーザー データはデバイス上に残り、ユーザーのプライバシーが保持されます。
  • 高可用性 - インターネット接続が利用できない場合や信頼性が低い場合でも、Web アプリとフレームワークでニューラル ネットワーク モデルをローカルで実行できるため、オフラインケースの初期資産キャッシュ後にネットワークに依存しません。
  • サーバー コストが低い - クライアント デバイスでのコンピューティングは、サーバーが必要ないことを意味します。これは、Web アプリがクラウドで AI/ML サービスを実行する場合の運用コストとメンテナンス コストを削減するのに役立ちます。

WebNN でサポートされる AI/ML シナリオには、生成 AI、人物検出、顔検出、セマンティック セグメント化、スケルトン検出、スタイル転送、スーパー解像度、画像キャプション、機械翻訳、ノイズ抑制などがあります。

WebNN API はまだ進行中であり、GPU と NPU のサポートはプレビュー状態です。 現在、WebNN API は運用環境では使用しないでください。

フレームワーク サポート

WebNN は、Web フレームワークのバックエンド API として設計されています。 Windows の場合は、 ONNX Runtime Web を使用することをお勧めします。 これにより、DirectML と ONNX ランタイムをネイティブに使用することで、Web アプリケーションおよびネイティブ アプリケーションで ONNX 形式の AI を一貫してデプロイする経験を得ることができます。

WebNN の要件

Chromium ブラウザーのアドレス バーで about://version に移動して、ブラウザーに関する情報を確認できます。

ハードウェア Web ブラウザー Windows のバージョン ONNX Runtime Web バージョン ドライバー バージョン
GPUの WebNN には Chromium ブラウザーが必要です*。 Microsoft Edge Beta の最新バージョンを使用してください。 最小バージョン: Windows 11 バージョン 21H2。 最小バージョン: 1.18 ハードウェアの最新のドライバーをインストールします。
NPUの WebNN には Chromium ブラウザーが必要です*。 Microsoft Edge Canary の最新バージョンを使用してください。 GPU ブロックリストを無効にする方法については、以下の注を参照してください。 最小バージョン: Windows 11 バージョン 21H2。 最小バージョン: 1.18 Intel ドライバーのバージョン: 32.0.100.2381。 ドライバーを更新する方法の手順については、FAQ を参照してください。

WebNN を Web アプリに統合する背後にある構造の図

Chromium ベースのブラウザーは現在、WebNN をサポートできますが、個々のブラウザーの実装状態によって異なります。

NPU サポートの場合は、次のフラグを使用してコマンド ラインからエッジを起動します。 msedge.exe --disable_webnn_for_npu=0

モデルのサポート

GPU (プレビュー):

GPU で実行する場合、WebNN は現在、次のモデルをサポートしています。

WebNN は、オペレーターのサポートが十分であれば、カスタム モデルでも機能します。 演算子の状態 については、こちらをご覧ください

NPU (プレビュー):

Intel AI Boost NPU を搭載した Intel®® の Core™ Ultra プロセッサでは、WebNN は次をサポートしています。

よくあるご質問

WebNN に問題を提出するにはどうすればよいですか?

WebNN に関する一般的な問題については、WebNN Developer Preview GitHub に問題を提出してください

ONNX Runtime Web または WebNN 実行プロバイダーに関する問題については、 ONNXRuntime Github を参照してください。

WebNN に関する問題をデバッグするにはどうすればよいですか?

WebNN W3C 仕様には、エラー伝達に関する情報が含まれます。通常は DOM 例外を使用します。 about://gpu の末尾のログにも役立つ情報が含まれている場合があります。 その他の問題については、上記のリンクに関する問題を提出してください。

WebNN は他のオペレーティング システムをサポートしていますか?

現在、WebNN は Windows オペレーティング システムを最もよくサポートしています。 他のオペレーティング システムのバージョンが進行中です。

現在使用できるハードウェア バックエンドは何ですか? 特定のモデルは、特定のハードウェア バックエンドでのみサポートされていますか?

WebNN のオペレーター サポートに関する情報は、 WebNN 運用の実装状態 |Web Machine Learning

NPU サポート (プレビュー) 用の Intel ドライバーを更新する手順は何ですか?

  1. Intel のドライバー Web サイトから更新された ドライバーを見つけます。
  2. ZIP ファイルを圧縮解除します。
  3. Win キーを押しながら R キーを押して、[実行] ダイアログ ボックスを開きます。
  4. テキスト フィールドに「devmgmt.msc」と入力します。
  5. Enter キーを押すか、[OK] をクリックします。
  6. デバイス マネージャーで、"ニューラル プロセッサ" ノードを開きます。
  7. 更新するドライバのNPUを右クリックします。
  8. コンテキスト メニューから [ドライバーの更新] を選択する
  9. [コンピューターでドライバーを参照します] を選択します
  10. [コンピューターで利用可能なドライバーの一覧から選択できるようにする] を選択します
  11. [ディスクを持つ] ボタンを押す
  12. [参照] ボタンを押します
  13. 前述の ZIP ファイルを展開した場所に移動します。
  14. [OK] を押します。