Mains libres
Scénarios
Comme indiqué dans la vue d’ensemble du modèle d’interaction, une fois que vous avez identifié vos utilisateurs et leurs objectifs, demandez-vous quels sont les défis environnementaux ou situationnels auxquels ils peuvent être confrontés lorsqu’ils travaillent à l’accomplissement de leurs tâches. Par exemple, de nombreux utilisateurs doivent utiliser leurs mains pour atteindre leurs objectifs réels, et ils auront des difficultés à interagir avec une interface basée sur les mains et les contrôleurs.
Voici quelques scénarios spécifiques :
- Guidage pour effectuer une tâche, pendant que les mains de l’utilisateur sont occupées
- Référencement de matériaux lorsque les mains de l’utilisateur sont occupées
- Fatigue de la main
- Gants qui ne peuvent pas être suivis
- Transport d’objet avec les mains
- Maladresse sociale lors de l’utilisation de grands mouvements de main
- Espaces étroits
Modalités mains libres
Entrée vocale
L’utilisation de votre voix pour commander et contrôler une interface offre un moyen pratique d’utiliser les mains libres et d’utiliser des raccourcis pour ignorer plusieurs étapes si vous le souhaitez. Avec l’entrée vocale, l’utilisateur peut lire le nom de n’importe quel bouton à voix haute pour l’activer (« voir, dis-le ») et converser avec un agent numérique qui peut accomplir des tâches pour vous.
Pointer du regard et fixer
Dans certaines situations mains libres, l’utilisation de votre voix n’est pas idéale ou même possible. Les environnements d’usine bruyants, la confidentialité ou les normes sociales peuvent tous être des contraintes. Le modèle regard+ dwell permet à l’utilisateur de naviguer dans une application sans aucune entrée supplémentaire en dehors de son regard ou de sa tête : l’utilisateur continue simplement à regarder (avec sa tête ou ses yeux) la cible et s’y attarde pendant un moment pour l’activer. Pour en savoir plus sur les considérations de conception individuelles pour le regard + l’attardage, case activée œil-regard + d’appréhérence et de regard de tête + d’habiter.
Transition vers et hors des mains libres
Dans ces scénarios, libérer vos mains de l’interaction avec les hologrammes pour la commande et la navigation peut aller d’une exigence absolue à l’exploitation de l’application, de bout en bout, à une commodité supplémentaire dont l’utilisateur peut effectuer la transition à tout moment.
Si l’application nécessite qu’elle soit toujours utilisée en mains libres, que ce soit à l’aide de commandes vocales personnalisées ou de la commande vocale unique, « sélectionnez », veillez à apporter les aménagements appropriés dans votre interface utilisateur.
Si votre utilisateur cible doit passer des mains aux mains libres à sa discrétion, il est important de prendre en compte les principes suivants.
Supposons que l’utilisateur est déjà dans le mode vers lequel il souhaite basculer
Par instance, si l’utilisateur est en usine, regardant une référence vidéo sur son HoloLens, et décide de prendre une clé pour commencer à travailler, il est fort probable qu’elle commence à travailler en mains libres sans avoir à poser la clé pour appuyer sur un bouton. Elle peut appeler une session vocale avec une commande vocale, s’étendre sur une interface utilisateur déjà visible pour commencer à s’arrêter ou prononcer le mot « select ».
L’utilisateur peut :
- Basculer vers les mains libres tandis que les mains libres
- Passer aux mains avec vos mains
- Basculer vers le contrôleur à l’aide d’un contrôleur
Créer des méthodes redondantes pour changer de mode
Alors que le premier principe concerne l’accès, le second concerne la disponibilité. Il ne devrait pas y avoir une seule façon de passer à un mode et à le sortir d’un mode.
Voici quelques exemples :
- Bouton permettant de commencer les interactions vocales
- Commande vocale vers qui effectuer la transition, à l’aide d’un regard de tête et d’une longue durée
Ajouter un tiret de drame
Un commutateur de mode est un gros problème. Il est important que lorsque ces transitions se produisent, elles soient un changement explicite, voire dramatique, pour informer l’utilisateur de ce qui s’est passé.
Liste de contrôle de la facilité d’utilisation
L’utilisateur peut-il faire tout et n’importe quoi mains libres, de bout en bout ?
- Chaque interaction doit être accessible en mains libres
- Assurez-vous qu’il existe un remplacement pour tous les mouvements personnalisés, tels que le redimensionnement, le placement, les balayages, les appuis, etc.
- Assurez-vous que l’utilisateur dispose toujours d’un contrôle confiant de la présence, de l’emplacement et du détail de l’interface utilisateur
- Sortie de l’interface utilisateur
- Adressage de l’interface utilisateur hors champ d’affichage (FOV)
- Combien je vois, où, quand
Les mécanismes de l’interaction sont-ils enseignés et renforcés avec les bonnes affordances ?
L’utilisateur comprend-il ...
- ... Dans quel mode sont-ils ?
- ... Qu’est-ce qu’ils peuvent faire dans ce mode ?
- ... Quel est l’état actuel ?
- ... Comment ils peuvent faire la transition ?
L’interface utilisateur est-elle optimisée pour les mains libres ?
- Exemple : les affordances Dwell ne sont pas intégrées à des modèles 2D classiques
- Exemple : Le ciblage vocal est préférable avec la mise en surbrillance d’objets
- Exemple : Les interactions vocales sont meilleures avec les légendes qui doivent être activées