Modelos de interacción

Completado 100 XP

El kit de herramientas de Mixed Reality le permite consumir datos de entrada de diversos orígenes, como controladores de 6DoF (seis grados de libertad), manos articuladas o voz. Para determinar el mejor modelo de interacción para la aplicación, piense en los objetivos de los usuarios y tenga en cuenta los factores ambientales que podrían afectar a su experiencia.

Hay tres modelos de interacción principales que se adaptan a la mayoría de las experiencias de realidad mixta. Aunque podría combinar partes de varios modelos de interacción en la aplicación, piense detenidamente antes de hacerlo. Existe el riesgo de que se produzca competencia en la entrada del usuario, como haces de mano o un cursor de mirada simultáneos, lo que podría abrumar y confundir a los usuarios.

Modelo de controladores de manos y movimiento

El modelo de controladores de manos y movimiento requiere que los usuarios usen una o dos manos para interactuar con el mundo holográfico. Este modelo elimina el límite entre lo virtual y lo físico.

Algunos escenarios específicos incluyen:

  • Proporcionar a los trabajadores de la información pantallas virtuales 2D con prestaciones de la interfaz de usuario para mostrar y controlar el contenido.
  • Envío de tutoriales y guías a los trabajadores de primera línea en líneas de montaje industriales
  • Desarrollo de herramientas profesionales para ayudar y formar a los profesionales médicos.
  • Uso de objetos virtuales 3D para decorar el mundo real o crear un segundo mundo
  • Crear servicios y juegos basados en la ubicación que usan el mundo real como fondo.

Hay tres modalidades de controladores de manos y movimiento:

  • Manipulación directa con las manos
  • Apuntar y confirmar con las manos
  • Controladores de movimiento

Modelo de manos libres

Como su nombre indica, el modelo de manos libres permite a los usuarios interactuar con el contenido holográfico sin necesidad de usar sus manos. En su lugar, pueden usar la entrada de voz o “mirada y permanencia”.

Algunos escenarios específicos incluyen:

  • Guiar al usuario por una tarea mientras tiene las manos ocupadas.
  • Consultar materiales mientras el usuario tiene las manos ocupadas.
  • Fatiga manual.
  • Guantes en los que no se puede realizar un seguimiento.
  • Llevar algo en las manos.
  • Incomodidad para realizar gestos exagerados con las manos en público.
  • Espacios estrechos.

Mirada y confirmación

Es mejor usar la acción de mirar y confirmar al interactuar con contenido holográfico que está fuera del alcance. El usuario mira en un objeto o elemento de interfaz de usuario y, a continuación, lo selecciona (lo confirma) mediante una entrada secundaria. Los métodos de confirmación incluyen comandos de voz, presión de un botón o un gesto de la mano.

Hay dos tipos de entradas de mirada (cabeza y ojo) y diferentes acciones de confirmación.


Siguiente unidad: Ejercicio: Incorporación de scripts de interacción manual a un objeto

Anterior Siguientes