Unityでの頭の視線入力
視線入力は、アプリがMixed Realityで作成するホログラムをユーザーがターゲットにする主な方法です。
頭の視線入力を実装する
概念的には、ユーザーのヘッドセットから前方に光線を投影して、何がヒットするかを確認することで 、頭の視線入力 を決定します。 Unityでは、ユーザーの頭の位置と方向は、カメラ (特に UnityEngine.Camera.メイン) を介して公開されます。transform.forward と UnityEngine.Camera.メイン。transform.position。
Physics.RayCast を呼び出すと、衝突に関する情報 (3D 衝突ポイントや、頭部視線レイヒットの他の GameObject など) を含む RaycastHit が提供されます。
例: 頭の視線入力を実装する
void Update()
{
RaycastHit hitInfo;
if (Physics.Raycast(
Camera.main.transform.position,
Camera.main.transform.forward,
out hitInfo,
20.0f,
Physics.DefaultRaycastLayers))
{
// If the Raycast has succeeded and hit a hologram
// hitInfo's point represents the position being gazed at
// hitInfo's collider GameObject represents the hologram being gazed at
}
}
ベスト プラクティス
上記の例では、更新ループから 1 つのレイキャストを起動してユーザーのヘッド ポイントのターゲットを見つけますが、1 つのオブジェクトを使用してすべてのヘッド視線入力プロセスを管理することをお勧めします。 頭視線入力ロジックを組み合わせることで、アプリの貴重な処理能力が節約され、レイキャストがフレームごとに 1 つに制限されます。
頭の視線入力の視覚化
コンピューター上のマウス ポインターと同様に、ユーザーの頭の視線入力を表す カーソル を実装する必要があります。 ユーザーがターゲットとするコンテンツを把握すると、ユーザーが操作しようとしている内容に対する信頼度が高まります。
Mixed Reality ツールキットでの頭の視線入力
MRTK の 入力マネージャー からヘッド視線入力にアクセスできます。
次の開発チェックポイント
私たちがレイアウトしたUnity開発の過程に従っている場合は、MRTK コア構成要素を探索している最中です。 ここから、次の構成要素に進むことができます。
または、Mixed Realityプラットフォームの機能と API に移動します。
いつでもUnity開発チェックポイントに戻ることができます。