Artikulierte Hand- und Augenverfolgung in Unity

HoloLens 2 hat einige neue und aufregende Funktionen eingeführt, z. B. Articulated Hand und Eye Tracking.

Die einfachste Möglichkeit, die neue Funktion in Unity zu nutzen, ist das MRTK. Es gibt auch einige Beispielszenen, die Ihnen den Einstieg erleichtern.

Bausteine, die Hände, Augen und andere in MRTK unterstützen

MRTK v2 bietet eine Reihe von Ui-Steuerelementen und Bausteinen, mit denen Sie Ihre Entwicklung beschleunigen können.

ButtonSchaltfläche Begrenzungsrahmen Manipulationshandlerfür Manipulationshandler
Ein Schaltflächensteuerelement, das verschiedene Eingabemethoden unterstützt, einschließlich der handgelenkten Hand von HoloLens2 Standard Benutzeroberfläche zum Bearbeiten von Objekten im 3D-Raum Skript zum Manipulieren von Objekten mit einer oder zwei Händen.
SlateSlate System KeyboardSystemtastatur InteractableInteraktionsfähig
2D-Stilebene, die scrollen mit artikulierter Handeingabe unterstützt Beispielskript für die Verwendung der Systemtastatur in Unity Ein Skript, um Objekte interaktionsfähig zu machen, mit visuellen Zuständen und Designunterstützung.
SolverSolver Object CollectionObjektsammlung TooltipQuickInfo
Verschiedene Objektpositionierungsverhalten wie Tag-Along, Body-Lock, konstante Ansichtsgröße und Oberflächenmagnetismus Skript zum Anordnen eines Arrays von Objekten in einer dreidimensionalen Form Anmerkungsbenutzeroberfläche mit flexiblem Anker-/Pivotsystem, das zum Bezeichnen von Bewegungscontrollern und Objekten verwendet werden kann.
App BarApp-Leiste PointersZeiger Fingertip VisualizationFingerspitzenvisualisierung
Benutzeroberfläche für die manuelle Aktivierung des Begrenzungsrahmens Erfahren Sie mehr über verschiedene Typen von Zeigern. Visuelle Leistung auf der Fingerspitze, die das Vertrauen für die direkte Interaktion verbessert
Eye Tracking: Target SelectionEyetracking: Zielauswahl Eye Tracking: NavigationEyetracking: Navigation
Kombinieren Sie Augen-, Sprach- und Handeingaben, um Hologramme schnell und mühelos in Ihrer Szene auszuwählen. Erfahren Sie, wie Sie basierend auf dem, was Sie betrachten, automatisch Text scrollen oder auf fokussierte Inhalte zoomen. Beispiele für die Protokollierung, das Laden und visualisieren, was Benutzer in Ihrer App betrachtet haben

Beispielszenen

Erkunden Sie die verschiedenen Arten von Interaktionen und Benutzeroberflächen-Steuerelementen des MRTK in dieser Beispielszene.

Weitere Beispielszenen finden Sie in Mixed Reality Toolkit GitHub im Ordner Assets/MixedRealityToolkit.Examples/Demos.

Beispielszene

Nächster Entwicklungsprüfpunkt

Wenn Sie die von uns beschriebene Unity-Entwicklungsreise befolgen, befinden Sie sich mitten in der Erkundung der MRTK-Kernbausteine. Von hier aus können Sie mit dem nächsten Baustein fortfahren:

Oder fahren Sie mit den Funktionen und APIs der Mixed Reality-Plattform fort:

Sie können jederzeit zu den Prüfpunkten für die Unity-Entwicklung zurückkehren.

Siehe auch