AI コンポジションを使用した複数の AI モデルによるライブ ビデオ ストリームの分析

Edge アイコン
または、サービスでのビデオ アプリケーションの作成に関する記事のトピックを参照してください。


注意

Azure Video Analyzer プレビュー サービスは廃止されます。2022 年 12 月 1 日までに、Video Analyzer からアプリケーションを移行することをお勧めします。

Azure Video Analyzer for Media は、この廃止の影響を受けません。 これは Azure Video Indexer にブランドが変更されました。 詳細については、こちらをクリックして確認してください。

操作が必要: ワークロードの中断を最小限に抑えるには、2022 年 12 月 1 日より前に、このガイドで説明されている推奨事項に従って、Video Analyzer からアプリケーションを移行してください。 2022 年 12 月 1 日以降、Azure Video Analyzer アカウントは機能しなくなります。 2022 年 5 月 2 日より、新しい Video Analyzer アカウントを作成することはできなくなります。

特定の顧客シナリオでは、複数の AI モデルを使用してビデオを分析する必要があります。 それらのモデルが相互に強化し合って、または個別に並行して同じビデオ ストリームに作用することによって、またはそのような強化されるモデルと個別に並行するモデルの組み合わせが同じビデオ ストリームに作用することによって、アクション可能な分析情報を導き出すことができます。

Azure Video Analyzer を使用すると、AI コンポジションと呼ばれる機能を通してこのようなシナリオがサポートされます。 このガイドでは、同じビデオ ストリームに複数のモデルを強化される方式で適用する方法を示します。 Tiny (Light) YOLO と通常の YOLO モデルを並行して使用し、関心のあるオブジェクトを検出します。 Tiny YOLO モデルは、YOLO モデルよりも計算上は軽量ですが精度が低く、最初に呼び出されます。 検出されたオブジェクトが特定の信頼度のしきい値を超えた場合、順次ステージングされる通常の YOLO モデルは呼び出されないため、基になるリソースを効率的に利用できます。

このガイドの手順を完了すると、AI コンポジションが可能なパイプラインを介してシミュレートされたライブ ビデオ ストリームを実行し、ご自身の特定のシナリオに拡張することができます。 次の図は、そのパイプラインをグラフィカルに表したものです。

AI コンポジションの概要

前提条件

ヒント

Azure IoT Tools 拡張機能のインストール中に Docker のインストールを求められる場合があります。 このプロンプトは無視してかまいません。

作成された Azure リソースで問題が発生した場合は、 トラブルシューティング ガイド を参照して、よく発生する問題を解決してください。

ビデオ サンプルを確認する

前提条件のセクションで指定されたクイックスタートは既に完了しているため、エッジ デバイスは既に作成されています。 このエッジ デバイスには、特定のビデオ ファイルを含む /home/localedgeuser/samples/input という入力フォルダーがあります。 IoT Edge デバイスにログインし、ディレクトリを /home/localedgeuser/samples/input/ に変更します。次のコマンドを実行して、このハウツー ガイドで使用する入力ファイルを取得します。

wget https://avamedia.blob.core.windows.net/public/co-final.mkv

さらに、必要に応じて、VLC メディア プレーヤーがインストールされているマシンで Ctrl + N キーを押し、サンプル ビデオ (.mkv) へのリンクを貼り付けて再生を開始します。 高速道路上の車の映像が表示されます。

パイプラインを作成してデプロイする

前提条件で完了したクイックスタートの手順と同様に、ここでの手順に従うことができますが、少し調整してください。

  1. 終了したばかりのクイックスタートの「パイプラインを作成してデプロイする」セクションのガイドラインに従います。 手順を続行する場合は、次の調整を行ってください。 これらの手順は、ダイレクト メソッド呼び出しのための正しい本文を確実に使用するのに役立ちます。

    operations.json ファイルを編集します。

    • パイプライン トポロジへのリンクを変更します: "pipelineTopologyUrl" : "https://raw.githubusercontent.com/Azure/video-analyzer/main/pipelines/live/topologies/ai-composition/topology.json"

    • livePipelineSet で、

      1. "topologyName" : "AIComposition" を確認し、
      2. rtspUrl パラメーター値を "rtsp://rtspsim:554/media/co-final.mkv" に変更します。
    • pipelineTopologyDelete で、名前を編集します: "name" : "AIComposition"

  2. IoT Edge の配置マニフェストを生成してデプロイする」セクションのガイドラインに従いますが、代わりに次の配置マニフェストを使用してください: src/edge/deployment.composite.template.json

  3. サンプル プログラムを実行する」セクションのガイドラインに従います。

  4. 結果の詳細については、「結果を解釈する」セクションを参照してください。 ハブ上の分析イベントと診断イベントに加えて、使用したトポロジによって、関連するビデオ クリップもクラウド上に作成されます。これは AI シグナルをベースにしたシグナル ゲートのアクティブ化によってトリガーされます。 また、このクリップには、ダウンストリーム ワークフローで使用するハブ上の操作イベントが伴います。 Azure portal にログインすると、ビデオ クリップを調べて再生できます。

クリーンアップ

このアプリケーションを引き続き使用する予定がない場合は、このクイックスタートで作成したリソースを削除します。

次のステップ

診断メッセージについて詳しく学習します。