Web ニューラル ネットワーク (WebNN) API は、WEB アプリとフレームワークが GPU、CPU、または NPU などの専用の AI アクセラレータを使用してディープ ニューラル ネットワークを高速化できるようにする新しい Web 標準です。 WebNN API は、Windows 上の DirectML API を利用してネイティブ ハードウェア機能にアクセスし、ニューラル ネットワーク モデルの実行を最適化します。
アプリでの AI/ML の使用が一般的になるにつれて、WebNN API には次の利点があります。
- パフォーマンスの最適化 – DirectML を利用することで、WebNN は、複雑でプラットフォーム固有のコードを必要とせずに、Web アプリとフレームワークが各プラットフォームとデバイスに最適なハードウェアとソフトウェアの最適化を利用できるようにします。
- 低待機時間 - ブラウザー内推論を使用すると、リモート サーバーにデータを送信して応答を待つ必要なく、リアルタイムのビデオ分析、顔検出、音声認識などのローカル メディア ソースで新しいユース ケースを実現できます。
- プライバシーの保持 - Web アプリやフレームワークでは、処理のために機密情報や個人情報をクラウド サービスにアップロードする必要がないように、ユーザー データはデバイス上に残り、ユーザーのプライバシーが保持されます。
- 高可用性 - インターネット接続が利用できない場合や信頼性が低い場合でも、Web アプリとフレームワークでニューラル ネットワーク モデルをローカルで実行できるため、オフラインケースの初期資産キャッシュ後にネットワークに依存しません。
- サーバー コストが低い - クライアント デバイスでのコンピューティングは、サーバーが必要ないことを意味します。これは、Web アプリがクラウドで AI/ML サービスを実行する場合の運用コストとメンテナンス コストを削減するのに役立ちます。
WebNN でサポートされる AI/ML シナリオには、生成 AI、人物検出、顔検出、セマンティック セグメント化、スケルトン検出、スタイル転送、スーパー解像度、画像キャプション、機械翻訳、ノイズ抑制などがあります。
注
WebNN API はまだ進行中であり、GPU と NPU のサポートはプレビュー状態です。 現在、WebNN API は運用環境では使用しないでください。
フレームワーク サポート
WebNN は、Web フレームワークのバックエンド API として設計されています。 Windows の場合は、 ONNX Runtime Web を使用することをお勧めします。 これにより、DirectML と ONNX ランタイムをネイティブに使用することで、Web アプリケーションおよびネイティブ アプリケーションで ONNX 形式の AI を一貫してデプロイする経験を得ることができます。
WebNN の要件
Chromium ブラウザーのアドレス バーで about://version に移動して、ブラウザーに関する情報を確認できます。
ハードウェア | Web ブラウザー | Windows のバージョン | ONNX Runtime Web バージョン | ドライバー バージョン |
---|---|---|---|---|
GPUの | WebNN には Chromium ブラウザーが必要です*。 Microsoft Edge Beta の最新バージョンを使用してください。 | 最小バージョン: Windows 11 バージョン 21H2。 | 最小バージョン: 1.18 | ハードウェアの最新のドライバーをインストールします。 |
NPUの | WebNN には Chromium ブラウザーが必要です*。 Microsoft Edge Canary の最新バージョンを使用してください。 GPU ブロックリストを無効にする方法については、以下の注を参照してください。 | 最小バージョン: Windows 11 バージョン 21H2。 | 最小バージョン: 1.18 | Intel ドライバーのバージョン: 32.0.100.2381。 ドライバーを更新する方法の手順については、FAQ を参照してください。 |
注
Chromium ベースのブラウザーは現在、WebNN をサポートできますが、個々のブラウザーの実装状態によって異なります。
注
NPU サポートの場合は、次のフラグを使用してコマンド ラインからエッジを起動します。 msedge.exe --disable_webnn_for_npu=0
モデルのサポート
GPU (プレビュー):
GPU で実行する場合、WebNN は現在、次のモデルをサポートしています。
WebNN は、オペレーターのサポートが十分であれば、カスタム モデルでも機能します。 演算子の状態 については、こちらをご覧ください。
NPU (プレビュー):
Intel AI Boost NPU を搭載した Intel®® の Core™ Ultra プロセッサでは、WebNN は次をサポートしています。
よくあるご質問
WebNN に問題を提出するにはどうすればよいですか?
WebNN に関する一般的な問題については、WebNN Developer Preview GitHub に問題を提出してください
ONNX Runtime Web または WebNN 実行プロバイダーに関する問題については、 ONNXRuntime Github を参照してください。
WebNN に関する問題をデバッグするにはどうすればよいですか?
WebNN W3C 仕様には、エラー伝達に関する情報が含まれます。通常は DOM 例外を使用します。 about://gpu の末尾のログにも役立つ情報が含まれている場合があります。 その他の問題については、上記のリンクに関する問題を提出してください。
WebNN は他のオペレーティング システムをサポートしていますか?
現在、WebNN は Windows オペレーティング システムを最もよくサポートしています。 他のオペレーティング システムのバージョンが進行中です。
現在使用できるハードウェア バックエンドは何ですか? 特定のモデルは、特定のハードウェア バックエンドでのみサポートされていますか?
WebNN のオペレーター サポートに関する情報は、 WebNN 運用の実装状態 |Web Machine Learning。
NPU サポート (プレビュー) 用の Intel ドライバーを更新する手順は何ですか?
- Intel のドライバー Web サイトから更新された ドライバーを見つけます。
- ZIP ファイルを圧縮解除します。
- Win キーを押しながら R キーを押して、[実行] ダイアログ ボックスを開きます。
- テキスト フィールドに「devmgmt.msc」と入力します。
- Enter キーを押すか、[OK] をクリックします。
- デバイス マネージャーで、"ニューラル プロセッサ" ノードを開きます。
- 更新するドライバのNPUを右クリックします。
- コンテキスト メニューから [ドライバーの更新] を選択する
- [コンピューターでドライバーを参照します] を選択します
- [コンピューターで利用可能なドライバーの一覧から選択できるようにする] を選択します
- [ディスクを持つ] ボタンを押す
- [参照] ボタンを押します
- 前述の ZIP ファイルを展開した場所に移動します。
- [OK] を押します。