Entrada de Fala – MRTK3

Visão geral

A entrada de fala no MRTK é obtida pela implementação do PhraseRecognitionSubsystem. Por padrão, o MRTK é fornecido com WindowsPhraseRecognitionSubsystem, que utiliza o KeywordRecognizer do Unity. Assim como no MRTK v2, essa implementação padrão só tem suporte no Editor do Windows, no Windows Autônomo e na UWP.

Observação

Este guia fornece etapas para habilitar o subsistema de fala em um novo projeto do MRTK, supondo que a instalação básica não relacionada à fala já esteja em vigor. Se você estiver usando nosso projeto de exemplo, poderá observar que algumas etapas foram executadas para você.

Importante

Há um bug externo que faz com que a palavra-chave "selecionar" falhe ao ser reconhecida quando o WindowsPhraseRecognitionSubsystem é executado no HoloLens 2. Estamos trabalhando com as partes relevantes para resolver o problema. Para atenuar, altere a palavra-chave de reconhecimento de fala em StatefulInteractable (ou sua subclasse, como PressableButton) –> Configurações avançadas com estado interativo –> Permitir seleção por voz –> Palavra-chave de reconhecimento de fala.

Instalação

Habilitar o subsistema de fala

  1. Vá para Configurações do projeto –> Kit de ferramentas de realidade misturada –> Subsistemas do MRTK disponíveis.
  2. Habilite o subsistema de fala que você deseja usar. Nesse momento, o MRTK envia somente o WindowsPhraseRecognitionSubsystem.

Configurar o perfil corretamente

Para determinados subsistemas, um perfil é necessário para que ele seja executado normalmente. O WindowsPhraseRecognitionSubsystem enviado no momento não requer um perfil e, portanto, você pode ignorar essa configuração. Tenha em mente que os perfis podem ser necessários para outras implementações futuras do PhraseRecognitionSubsystem.

Verificar se o GameObject de Fala do MRTK está ativo

Verifique se os scripts relevantes estão ativos confirmando se MRTK XR Rig –> Fala do MRTK está ativo.

Verifique se a funcionalidade adequada está definida em Configurações do Player

Usando a Plataforma UWP como exemplo: vá para Configurações do Projeto –> Player –> Configurações de Publicação –> Funcionalidades e verifique se as Funcionalidades do Microfone estão definidas.

Executar a cena no dispositivo/no editor

O projeto deve estar pronto para ser executado em um dispositivo ou no editor.

Observação>StatefulInteractable (ou a subclasse dele, como PressableButton) precisa ser configurado para aceitar comandos de voz para que o subsistema de fala funcione com ele. Consulte seu inspetor (em Configurações avançadas com estado Interativo), bem como o SpeechInteractor (MRTK XR Rig -> Fala do MRTK) para obter configurações mais ajustáveis.