Share via


Digital, but Natural

In der letzten Zeit wird viel von Natural User Interfaces, kurz NUI, gesprochen und wie wir damit immer weniger die Grenze zwischen der realen Welt und der virtuellen Welt bewusst wahrnehmen. Das Ziel von NUI ist eine möglichst natürliche Interaktion zwischen Mensch und Maschine, und somit eine intuitivere und benutzerfreundlichere Erfahrung für den Nutzer.
 
Der Wandel von traditionellen grafischen Benutzeroberflächen (GUI) zu NUIs hat in den letzten zehn Jahren zugenommen. Tastatur und Maus werden schrittweise durch direkte Eingabemethoden, wie zum Beispiel Touch und Sprachsteuerung erweitert oder ersetzt. Die Bedienung soll somit effizienter und intuitiver sein.
 
NUI basiert auf menschlichen Fähigkeiten, wie Berührung, Sehen, Gestik, Handschrift und Sprache. Ein gutes natürliches Interface soll sich aber nicht nur auf eine von diesen Modalitäten beschränken, sondern unterschiedliche Eingabemethoden unterstützen.
Nehmen wir das Smartphone als Beispiel. Während man Auto fährt, kann Spracheingabe sehr nützlich sein, um das Gerät zu bedienen. Sobald man jedoch in einem öffentlichen Raum ist, wie beispielsweise in einer Bibliothek, könnte die Nutzung der Tastatur geeigneter sein.
Dementsprechend sollte NUI adaptiv sein und sich an den Kontext und die Bedürfnisse des Nutzers anpassen.
 
Es gibt natürlich auch unterschiedliche neue Herausforderungen die NUI mit sich bringt. Zum Beispiel gehören Gesten zu unserer natürlichen Verhaltensweise und können auch automatisch erfolgen, ohne dass wir eine bestimmte Absicht haben. In diesem Fall muss das System den Kontext entsprechend analysieren, um falsche Reaktionen zu vermeiden.
So kann zum Beispiel durch Erkennung der Blickrichtung des Nutzers festgestellt werden, ob er mit dem System interagieren will oder nicht.

Ein weiterer wichtiger Aspekt, den man berücksichtigen sollte ist Barrierefreiheit. Wie kann NUI am besten eingesetzt werden um Menschen mit Behinderungen zu unterstützen? Beziehungsweise wie sollte es angepasst werden? Durch den richtigen Einsatz von NUI könnte Technologie für jeden zugänglich sein.

Ein Beispiel für eine Windows App, die mit einer zusätzlichen natürlichen Eingabemethode erweitert wurde, ist Bing Kochen und Genuss. Die Anwendung ermöglicht das Aktivieren des Freihand-Modus, so dass der Nutzer nur mit einer Handbewegung die Seiten des Kochbuchs wenden kann.
Das Umblättern mittels Gestiksteuerung kann während dem Kochen sehr praktisch sein, um den Bildschirm sauber zu halten.

Viel mehr Möglichkeiten bietet Kinect an, ein Produkt von Microsoft, das Gesichtserkennung, sowie Sprach- und Gestenerkennung beinhaltet.
Kinect ist als Erweiterung von Xbox auf dem Markt erschienen. Nutzer können Körperbewegungen, Mimik und Sprachbefehlen nutzen und so auf eine natürliche Weise das Spiel steuern.
Obwohl Kinect erst nur für den Spielbereich gedacht war, wurde sein Potential schnell erkannt und ab 2012 mittels Kinect for Windows auch in anderen Industriebereichen eingesetzt.
 
Ab diesem Jahr ist eine neue Version von Kinect verfügbar. Kinect v2 besitzt im Gegensatz zu ihrem Vorgänger eine HD Farbkamera, eine Tiefenkamera, die auf der Time-Of-Flight Technologie basiert, sowie verbesserte Mikrofone. Damit können nun bis zu sechs Personen mit 25 Gelenkpunkten erkannt werden.
 
Weitere Details der Kinect Technologie werde ich in zukünftigen Blogs abdecken.
Ich hoffe, dieser Artikel über NUI hat euer Interesse geweckt und hat euch geholfen einen ersten Überblick zu gewinnen.
 

Weitere Infos zum Thema:

Natural User Interfaces Are Not Natural – Donald A. Norman
Brave NUI World: Designing Natural User Interfaces for Touch and Gesture - Daniel Wigdor, Dennis Wixon

Comments

  • Anonymous
    September 11, 2014
    The comment has been removed
  • Anonymous
    March 09, 2015
    Hi Linus, danke für dein Feedback! Ich glaube Sprachsteuerung wird jetzt mit Cortana unter Windows 10 eine sehr natürliche Interaktion ermöglichen. Viele Grüße Nico