Freigeben über


SpeechRecognizerState Enumeration

Definition

Gibt den Status der Spracherkennung an.

public enum class SpeechRecognizerState
/// [Windows.Foundation.Metadata.ContractVersion(Windows.Foundation.UniversalApiContract, 65536)]
enum class SpeechRecognizerState
[Windows.Foundation.Metadata.ContractVersion(typeof(Windows.Foundation.UniversalApiContract), 65536)]
public enum SpeechRecognizerState
var value = Windows.Media.SpeechRecognition.SpeechRecognizerState.idle
Public Enum SpeechRecognizerState
Vererbung
SpeechRecognizerState
Attribute

Windows-Anforderungen

Gerätefamilie
Windows 10 (eingeführt in 10.0.10240.0)
API contract
Windows.Foundation.UniversalApiContract (eingeführt in v1.0)

Felder

Capturing 1

Gibt an, dass die Spracherkennung Audioeingaben des Benutzers erfasst (lauscht).

Nützlich für dynamisches Feedback während der standard- oder kontinuierlichen Erkennung.

Idle 0

Gibt an, dass die Spracherkennung nicht aktiv ist und die Spracherkennung keine Audioeingaben erfasst (abhört).

In diesem Zustand können SpeechRecognizer.RecognizeAsync, SpeechRecognizer.RecognizeWithUIAsync, SpeechContinuousRecognitionSession.StartAsync oder SpeechRecognizer.CompileConstraintsAsync aufgerufen werden.

Paused 6

Nur gültig für kontinuierliche Erkennung.

Gibt an, dass die Spracherkennungssitzung noch aktiv ist, die Spracherkennung jedoch keine Audioeingaben mehr verarbeitet (versucht, sie zu erkennen). Laufende Audioeingaben werden gepuffert.

In diesem Zustand können Einschränkungen hinzugefügt, entfernt und kompiliert werden.

Wenn bei der Initialisierung der Erkennungssitzung eine oder mehrere Einschränkungen angegeben werden, führt das Entfernen aller Einschränkungen und das Fortsetzen der Erkennung zu einem Fehler.

Wenn bei der Initialisierung der Erkennungssitzung keine Einschränkungen angegeben werden, führt das Hinzufügen von Einschränkungen und das Fortsetzen der Erkennung ebenfalls zu einem Fehler.

Processing 2

Gibt an, dass die Spracherkennung Audioeingaben vom Benutzer verarbeitet (versucht zu erkennen). Die Erkennung erfasst (lauscht) keine Audioeingaben des Benutzers mehr.

Während der Standarderkennung kann der Zustand auftreten, nachdem die Erkennung die Erfassung von Audioeingaben beendet hat und bevor ein Erkennungsergebnis zurückgegeben wird.

Während der kontinuierlichen Erkennung kann dieser Zustand auftreten, nachdem StopAsync aufgerufen wurde und bevor das Completed-Ereignis ausgelöst wird.

Nützlich, um anzugeben, dass ein Benutzer nicht mehr spricht.

SoundEnded 4

Gibt an, dass die Spracherkennung den Ton im Audiodatenstrom nicht mehr erkennt.

Nützlich zum Ausblenden der Spracherkennungs-Benutzeroberfläche. Die Erkennungssitzung ist jedoch weiterhin aktiv.

SoundStarted 3

Gibt an, dass die Spracherkennung Sound im Audiodatenstrom erkannt hat.

Nützlich, um anzugeben, dass Sound (nicht unbedingt Sprache) erkannt wurde.

SpeechDetected 5

Gibt an, dass die Spracherkennung spracheingaben im Audiodatenstrom erkannt hat.

Nützlich, um anzugeben, dass Sprache erkannt wurde.

Gilt für:

Weitere Informationen