Utbildning
Modul
Lägga till Azure AI-tjänster i ditt mixed reality-projekt - Training
Den här kursen utforskar användningen av Azure-taltjänster genom att integrera till ett hololens2-program. Du kan också distribuera projektet till en HoloLens.
Den här webbläsaren stöds inte längre.
Uppgradera till Microsoft Edge och dra nytta av de senaste funktionerna och säkerhetsuppdateringarna, samt teknisk support.
Windows Speech-paketet lägger WindowsKeywordRecognitionSubsystem
till i projektet, som erbjuder funktioner för nyckelordsigenkänning på Windows- och UWP-plattformar. Som MRTK-nyckelordRecognitionSubsystem kan undersystemet arbeta med SpeechInteractor
för att utlösa utvalda händelser baserat på StatefulInteractable's
inställningarna för de interaktionsbara objekten. Du kan också registrera godtyckliga UnityAction's
till valfritt nyckelord så att åtgärden anropas när ett sådant ord sägs.
Allmän information om KeywordRecognitionSubsystem
i MRTK finns i dokumentationen.
Se avsnitten Setup and Using KeywordRecognitionSubsystem i KeywordRecognitionSubsystem
artikeln. För WindowsKeywordRecognitionSubsystem
används en konfigurationstillgång för att ange för tolkning av Confidence Level
tal. Den enda funktionen som krävs i spelarinställningarna är "mikrofon".
Windows Speech-paketet lägger WindowsDictationSubsystem
också till i projektet, som erbjuder dikteringsfunktioner på Windows- och UWP-plattformar. Som MRTK-dikteringSubsystem kan du med undersystemet starta och stoppa en diktamenssession och ange följande händelser:
Recognizing
utlöses när identifieraren bearbetar indata och returnerar ett preliminärt resultat.Recognized
utlöses när identifieraren kände igen indata och returnerar ett slutresultatet.RecognitionFinished
utlöses när igenkänningssessionen är klar och returnerar en orsak.RecognitionFaulted
utlöses när igenkänningen är felaktig (d.v.s. ett fel uppstod) och returnerar en orsak.Allmän information om DictationSubsystem
i MRTK finns i dokumentationen.
Se avsnitten DictationSubsystem
Setup and Using DictationSubsystem i artikeln. För WindowsDictationSubsystem
används en konfigurationstillgång för att ange för tolkning av Confidence Level
Auto Silence Timeout
tal och och Initial Silence Timeout
för en dikteringssession. Den enda funktionen som krävs i spelarinställningarna är "mikrofon".
Slutligen lägger WindowsTextToSpeechSubsystem
Windows Speech-paketet till i projektet, vilket ger möjlighet att syntetisera och tala en textfras på Windows- och UWP-plattformar. Allmän information om TextToSpeechSubsystem
i MRTK finns i dokumentationen.
Se avsnitten Setup and Using TextToSpeechSubsystem (Konfigurera och använda TextToSpeechSubsystem ) i TextToSpeechSubsystem
artikeln. För WindowsTextToSpeechSubsystem
används en konfigurationstillgång för att välja den Voice
som används. Inga funktioner krävs i spelarinställningarna.
Anteckning
Som namnen antyder WindowsKeywordRecognitionSubsystem
fungerar , WindowsDictationSubsystem
och WindowsTextToSpeechSubsystem
endast på fristående Windows- och UWP-plattformar.
Utbildning
Modul
Lägga till Azure AI-tjänster i ditt mixed reality-projekt - Training
Den här kursen utforskar användningen av Azure-taltjänster genom att integrera till ett hololens2-program. Du kan också distribuera projektet till en HoloLens.
Dokumentation
Core Subsystem KeywordRecognitionSubsystem - MRTK3
Information om det MRTK3-undersystem som ansvarar för nyckelordsigenkänning
Talindata i MRTK3
Core Subsystem TextToSpeechSubsystem - MRTK3
Information om MRTK3-undersystemet som ansvarar för text till tal