Partilhar via


Introdução a interações instintivas

Manipulação com as mãos

A filosofia de interações simples e instintivas está entrelaçada em toda a plataforma de realidade mista (MR). Tomámos três passos para garantir que os designers de aplicações e os programadores possam proporcionar aos seus clientes interações fáceis e intuitivas.

Primeiro, garantimos que os nossos sensores e tecnologias de entrada se combinam em modelos de interação multimodal. Estes modelos de interação incluem o controlo manual e ocular, juntamente com a entrada de linguagem natural. Com base na nossa investigação, conceber e desenvolver dentro de uma arquitetura multimodal (e não com base em entradas individuais) é a chave para criar experiências instintivas.

Em segundo lugar, reconhecemos que muitos programadores têm como destino vários dispositivos HoloLens, como HoloLens 2 e HoloLens (1.ª geração) ou HoloLens e VR. Por isso, concebemos os nossos modelos de interação para trabalhar em todos os dispositivos, mesmo que a tecnologia de entrada varie em cada dispositivo. Por exemplo, uma interação muito grande num headset Envolvente do Windows com um controlador 6DoF e HoloLens 2 ambos utilizam padrões e acessibilidades idênticos. Isto facilita o desenvolvimento de aplicações entre dispositivos e proporciona uma sensação natural às interações dos utilizadores.

Embora reconheçamos que existem milhares de interações eficazes, envolventes e mágicas possíveis no MR, descobrimos que utilizar intencionalmente um único modelo de interação numa aplicação é a melhor forma de garantir que os utilizadores têm sucesso e têm uma grande experiência. Para tal, incluímos três aspetos nesta documentação de orientação de interação:

  • Orientações específicas em torno dos três modelos de interação principal e dos componentes e padrões necessários para cada um.
  • Documentação de orientação suplementar sobre outros benefícios que a nossa plataforma proporciona.
  • Documentação de orientação geral para ajudar a selecionar o modelo de interação adequado para o seu cenário de desenvolvimento.

Demonstração básica de controlo de mãos e interações instintivas

Veja a nossa demonstração de vídeo Designing Holograms - Head Tracking and Eye Tracking abaixo e, em seguida, avance para tópicos mais específicos:

Este vídeo foi retirado da aplicação "Designing Holograms" HoloLens 2. Transfira e desfrute da experiência completa aqui.

Modelos de interação multimodal

Com base na nossa pesquisa e feedback dos clientes, descobrimos que três modelos de interação principais se adequam à maioria das experiências de realidade mista. Em muitos aspectos, o modelo de interação é o modelo mental do utilizador para saber como concluir um fluxo de trabalho. Cada um destes modelos de interação é otimizado para um conjunto de necessidades do cliente e é conveniente, poderoso e utilizável quando utilizado corretamente.

O gráfico abaixo é uma descrição geral simplificada. As informações detalhadas para utilizar cada modelo de interação estão ligadas nas páginas abaixo com imagens e exemplos de código.


Modelação Cenários de exemplo Ajustar Hardware
Comandos de movimento e mãos Experiências espaciais 3D, como disposição espacial e design, manipulação de conteúdos ou simulação. Excelente para novos utilizadores quando utilizado em combinação com voz, rastreamento ocular ou seguimento do olhar. Curva de aprendizagem reduzida. Experiência do utilizador consistente entre o rastreamento das mãos e controlos 6DoF. HoloLens 2
Auscultadores envolventes
Mãos-livres Experiências contextuais em que as mãos de um utilizador estão ocupadas, como aprendizagem prática e manutenção. É necessária alguma aprendizagem. Se as mãos não estiverem livres, o dispositivo funcionará bem com voz e linguagem natural. HoloLens 2
HoloLens (1.ª geração)
Auscultadores envolventes
Olhar e confirmar Experiências onde faz clique para avançar, por exemplo, apresentações 3D, demonstrações. Requer formação em HMDs, mas não em dispositivos móveis. Melhor para comandos acessíveis. O melhor para o HoloLens (1.ª geração). HoloLens 2
HoloLens (1.ª geração)
Auscultadores envolventes
AR móvel

Para evitar lacunas na experiência de interação do utilizador, é melhor seguir as orientações para um único modelo do início ao fim.

As secções abaixo explicam os passos para selecionar e implementar um destes modelos de interação.

No final desta página, irá compreender a nossa documentação de orientação sobre:

  • Escolher um modelo de interação para o cliente
  • Implementar o modelo de interação
  • Transição entre modelos de interação
  • Estruturar os próximos passos

Escolher um modelo de interação para o cliente

Normalmente, os programadores e criadores têm pensado nos tipos de interações que os seus clientes podem ter. Para incentivar uma abordagem de design focada no cliente, recomendamos a seguinte documentação de orientação para selecionar o modelo de interação otimizado para o cliente.

Por que seguir esta documentação de orientação?

  • Testamos os nossos modelos de interação para critérios objetivos e subjetivos, incluindo esforço físico e cognitivo, intuição e aprendizagem.
  • Uma vez que as interações diferem, as acessibilidades visuais/áudio e o comportamento dos objetos podem ser diferentes entre os modelos de interação.
  • Combinar partes de vários modelos de interação cria o risco de acessibilidades concorrentes, como raios de mão simultâneos e um cursor de olhar para a cabeça. Tal pode sobrecarregar e confundir os utilizadores.

Eis alguns exemplos de como as acessibilidades e os comportamentos são otimizados para cada modelo de interação. Vemos muitas vezes que os novos utilizadores têm perguntas semelhantes, como "como sei que o sistema está a funcionar","como posso saber o que posso fazer" e "como posso saber se entendeu o que acabei de fazer?"


Modelação Como devo proceder para sabe que está a funcionar? Como devo proceder para sei o que posso fazer? Como devo proceder para sabe o que acabei de fazer?
Comandos de movimento e mãos Vejo uma malha de mão, uma acessibilidade de ponta dos dedos ou raios mão/controlador. Vejo alças agarráveis ou aparece uma caixa delimitadora quando a minha mão está perto de um objeto. Ouço tons audíveis e vejo animações em grab and release.
Olhar de cabeça e consolidação Vejo um cursor no centro do meu campo de vista. O cursor muda de estado quando está sobre determinados objetos. Vejo/ouço confirmações visuais e audíveis quando tomo medidas.
Mãos livres (Olhar para a cabeça e habitar) Vejo um cursor no centro do meu campo de vista. Vejo um indicador de progresso quando incido num objeto interacionável. Vejo/ouço confirmações visuais e audíveis quando tomo medidas.
Mãos livres (Comandos de voz) Vejo um indicador de escuta e legendas que mostram o que o sistema ouviu. Recebo pedidos de voz e sugestões. Quando digo: "O que posso dizer?" Vejo comentários. Vejo/ouço confirmações visuais e audíveis quando dou um comando ou obtenho o UX de desambiguação quando necessário.

Seguem-se as perguntas que encontrámos que ajudam as equipas a selecionar um modelo de interação:

  1. P: Os meus utilizadores querem tocar em hologramas e realizar manipulações holográficas de precisão?

    R: Em caso afirmativo, consulte o modelo de interação Mãos e controladores de movimento para obter a segmentação e manipulação de precisão.

  2. P: Os meus utilizadores precisam de manter as mãos livres para tarefas do mundo real?

    R: Se for o caso, veja o modelo de interação Mãos livres, que proporciona uma excelente experiência mãos-livres através de interações baseadas em voz e olhar.

  3. P: Os meus utilizadores têm tempo para aprender interações para a minha aplicação MR ou precisam das interações com a curva de aprendizagem mais baixa possível?

    R: Para a curva de aprendizagem mais baixa e as interações mais intuitivas, recomendamos o modelo Mãos e comandos de movimento, desde que os utilizadores possam utilizar as mãos para interação.

  4. P: Os meus utilizadores utilizam comandos de movimento para apontar e manipular?

    R: O modelo Mãos e comandos de movimento inclui todas as orientações para uma excelente experiência com comandos de movimento.

  5. P: Os meus utilizadores utilizam um controlador de acessibilidade ou um controlador Bluetooth comum, como um clicker?

    R: Recomendamos o modelo De olhar para a cabeça e consolidação para todos os controladores não controlados. Foi concebido para permitir que um utilizador percorra toda uma experiência com um mecanismo simples de "destino e consolidação".

  6. P: Os meus utilizadores progridem apenas através de uma experiência ao "clicar" (por exemplo, num ambiente semelhante a apresentação de diapositivos 3D), em vez de navegar em esquemas densos de controlos de IU?

    R: Se os utilizadores não precisarem de controlar muita IU, o Head-gaze e a consolidação oferecem uma opção passível de aprendizagem em que os utilizadores não têm de se preocupar com a segmentação.

  7. P: Os meus utilizadores utilizam o HoloLens (1.ª geração) e os auscultadores HoloLens 2/Windows Mixed Reality envolventes (VR)?

    R: Uma vez que o Head-gaze e a consolidação são o modelo de interação do HoloLens (1.ª geração), recomendamos que os criadores que suportam o HoloLens (1.ª geração) utilizem o Head-gaze e consolidem-se para quaisquer funcionalidades ou modos que os utilizadores irão experimentar num headset do HoloLens (1.ª geração). Veja a secção seguinte sobre Modelos de interação de transição para obter detalhes sobre como criar uma excelente experiência para várias gerações do HoloLens.

  8. P: E os utilizadores que são móveis, abrangendo um espaço grande ou movendo-se entre espaços, em comparação com os utilizadores que tendem a trabalhar num único espaço?

    R: Qualquer um dos modelos de interação funcionará para estes utilizadores.

Nota

Mais orientações específicas para a conceção de aplicações brevemente.

Modelos de interação de transição

Também existem casos de utilização que podem exigir a utilização de mais do que um modelo de interação. Por exemplo, o fluxo de criação da aplicação utiliza o modelo de interação "mãos e comandos de movimento ", mas pretende utilizar um modo mãos livres para técnicos de campo. Se a sua experiência exigir vários modelos de interação, os utilizadores poderão ter dificuldade em fazer a transição de um modelo para outro, especialmente quando são novos na realidade mista.

Nota

Estamos constantemente a trabalhar em mais orientações que estarão disponíveis para programadores e designers, informando-os sobre como, quando e porquê para utilizar vários modelos de interação mr.

Ver também