次の方法で共有


体のトラッキングの結果を表示する

Body Tracking SDK は、ボディ トラッカー オブジェクトを使用して Azure Kinect DK のキャプチャを処理し、ボディ トラッキングの結果を生成します。 また、トラッカー、処理キュー、および出力キューのグローバル ステータスも保持されます。 ボディ トラッカーを使用するには、次の 3 つの手順を実行します。

  • トラッカーの作成
  • Azure Kinect DK を使用した深度と IR 画像のキャプチャ
  • キャプチャをエンキューして結果をポップする。

トラッカーの作成

ボディ トラッキングを使用する最初の手順は、トラッカーを作成することです。これには、センサー調整 k4a_calibration_t 構造体を渡す必要があります。 センサーの調整は、Azure Kinect Sensor SDK k4a_device_get_calibration() 機能を使用してクエリできます。

k4a_calibration_t sensor_calibration;
if (K4A_RESULT_SUCCEEDED != k4a_device_get_calibration(device, device_config.depth_mode, K4A_COLOR_RESOLUTION_OFF, &sensor_calibration))
{
    printf("Get depth camera calibration failed!\n");
    return 0;
}

k4abt_tracker_t tracker = NULL;
k4abt_tracker_configuration_t tracker_config = K4ABT_TRACKER_CONFIG_DEFAULT;
if (K4A_RESULT_SUCCEEDED != k4abt_tracker_create(&sensor_calibration, tracker_config, &tracker))
{
    printf("Body tracker initialization failed!\n");
    return 0;
}

深度と IR 画像のキャプチャ

Azure Kinect DK を使用した画像のキャプチャについては、「イメージの取得」ページで説明されています。

Note

最適なパフォーマンスと精度を得るには、K4A_DEPTH_MODE_NFOV_UNBINNED または K4A_DEPTH_MODE_WFOV_2X2BINNED モードを使用することをお勧めします。 K4A_DEPTH_MODE_OFF モードまたは K4A_DEPTH_MODE_PASSIVE_IR モードは使用しないでください。

サポートされている Azure Kinect DK モードについては、Azure Kinect DK のハードウェアの仕様に関するページと「k4a_depth_mode_t」列挙型を参照してください。

// Capture a depth frame
switch (k4a_device_get_capture(device, &capture, TIMEOUT_IN_MS))
{
case K4A_WAIT_RESULT_SUCCEEDED:
    break;
case K4A_WAIT_RESULT_TIMEOUT:
    printf("Timed out waiting for a capture\n");
    continue;
    break;
case K4A_WAIT_RESULT_FAILED:
    printf("Failed to read a capture\n");
    goto Exit;
}

キャプチャをエンキューして結果をポップする

トラッカーでは、Azure Kinect DK キャプチャをより効率的に非同期で処理するために、入力キューと出力キューを内部で保持します。 新しいキャプチャを入力キューに追加するには、k4abt_tracker_enqueue_capture() 関数を使用します。 k4abt_tracker_pop_result() 関数を使用するか、出力キューから結果をポップします。 タイムアウト値の使用はアプリケーションによって異なり、キューの待機時間を制御します。

待機処理なし

このパターンは、即時の結果を必要とし、削除されたフレーム (デバイスからのライブ ビデオの表示など) に対応できるシングル スレッド アプリケーションに使用します。 GitHub Azure-Kinect-Samples にある simple_3d_viewer サンプルは、待機処理がない一例です。

k4a_wait_result_t queue_capture_result = k4abt_tracker_enqueue_capture(tracker, sensor_capture, 0);
k4a_capture_release(sensor_capture); // Remember to release the sensor capture once you finish using it
if (queue_capture_result == K4A_WAIT_RESULT_FAILED)
{
    printf("Error! Adding capture to tracker process queue failed!\n");
    break;
}

k4abt_frame_t body_frame = NULL;
k4a_wait_result_t pop_frame_result = k4abt_tracker_pop_result(tracker, &body_frame, 0);
if (pop_frame_result == K4A_WAIT_RESULT_SUCCEEDED)
{
    // Successfully popped the body tracking result. Start your processing
    ...

    k4abt_frame_release(body_frame); // Remember to release the body frame once you finish using it
}

待機処理

フレームごとに結果を必要としないアプリケーション (ファイルからのビデオの処理など) には、このパターンを使用します。 GitHub Azure-Kinect-Samples にある simple_sample.exe サンプルは、待機処理の一例です。

k4a_wait_result_t queue_capture_result = k4abt_tracker_enqueue_capture(tracker, sensor_capture, K4A_WAIT_INFINITE);
k4a_capture_release(sensor_capture); // Remember to release the sensor capture once you finish using it
if (queue_capture_result != K4A_WAIT_RESULT_SUCCEEDED)
{
    // It should never hit timeout or error when K4A_WAIT_INFINITE is set.
    printf("Error! Adding capture to tracker process queue failed!\n");
    break;
}

k4abt_frame_t body_frame = NULL;
k4a_wait_result_t pop_frame_result = k4abt_tracker_pop_result(tracker, &body_frame, K4A_WAIT_INFINITE);
if (pop_frame_result != K4A_WAIT_RESULT_SUCCEEDED)
{
    // It should never hit timeout or error when K4A_WAIT_INFINITE is set.
    printf("Error! Popping body tracking result failed!\n");
    break;
}
// Successfully popped the body tracking result. Start your processing
...

k4abt_frame_release(body_frame); // Remember to release the body frame once you finish using it

次のステップ