Augen und Hände — MRTK2

Unterstützung von Aussehen + Handbewegungen (Blick & Handgesten)

Auf dieser Seite wird erläutert, wie Sie die Ausrichtung des Auges als primären Zeiger in Kombination mit Handbewegungen verwenden. In unseren MRTK-Augenverfolgungsdemos beschreiben wir mehrere Beispiele für die Verwendung von Augen + Händen, z. B.:

  • Auswahl: Sehen Sie sich eine entfernte holografische Schaltfläche an und führen Sie einfach eine Pinch-Geste aus, um sie schnell auszuwählen.
  • Positionierung (in diesem Artikel): Bewegen Sie ein Hologramm fließend über Ihre Szene, indem Sie es einfach betrachten, Ihren Zeigefinger und den Daumen zusammenheften, um es zu greifen, und bewegen Sie es dann mit Der Hand.
  • Navigation: Sehen Sie sich einfach eine Position an, an der Sie zoomen möchten, drücken Sie Ihren Zeigefinger und Daumen zusammen und ziehen Sie Ihre Hand auf Sie zu, um zu zoomen.

Bitte beachten Sie, dass MRTK derzeit so konzipiert ist, dass Handstrahlen im Abstand als priorisierte Fokuszeiger fungieren. Dies bedeutet, dass die Kopf- und Blickzeiger automatisch unterdrückt werden, sobald eine Hand erkannt wird und nach dem Sagen "Select" wieder sichtbar wird. Dies ist jedoch möglicherweise nicht die Art und Weise, wie Sie aus der Ferne interagieren möchten, sondern eine einfache "Blick- und Commit" -Interaktion bevorzugen, unabhängig von der Anwesenheit von Händen in Ihrer Sicht.

Deaktivieren des Handstrahls

Um den Handstrahlzeiger zu deaktivieren, entfernen Sie einfach " DefaultControllerPointer" in Der MRTK-Konfigurationseinstellung Eingabe –> Zeiger . Um Augen und Hände wie oben in Ihrer App beschrieben zu verwenden, stellen Sie auch sicher, dass Sie alle Anforderungen für die Verwendung von Eye Tracking erfüllen.

Entfernen des Handstrahls

Sie können auch überprüfen, wie das Eingabeprofil EyeTrackingDemoPointerProfile aus dem Eye Tracking-Beispielpaket als Referenz eingerichtet ist.

So halten Sie den Blickzeiger immer eingeschaltet

Um zu vermeiden, dass der Kopf- oder Blickzeiger automatisch unterdrückt wird, sobald eine Hand erkannt wird, kann der Blick PointerBehavior angegeben werden, um zu steuern, ob er ein- oder ausgeschaltet werden soll.

// Turn on gaze pointer
PointerUtils.SetGazePointerBehavior(PointerBehavior.AlwaysOn);

Siehe Controllers Pointers and Focus.


Zurück zu "Eye Tracking im MixedRealityToolkit"