System.Speech.Recognition Namespace
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Dieser Namespace enthält Windows Desktop-Speech-Technologietypen zum Implementieren von Spracherkennung.
Klassen
AudioLevelUpdatedEventArgs |
Stellt Daten für das |
AudioSignalProblemOccurredEventArgs |
Stellt Daten für das |
AudioStateChangedEventArgs |
Stellt Daten für das |
Choices |
Stellt einen Satz von Alternativen in den Einschränkungen einer Spracherkennungsgrammatik dar. |
DictationGrammar |
Stellt eine Spracherkennungsgrammatik dar, die für Diktat des freien Texts verwendet wird. |
EmulateRecognizeCompletedEventArgs |
Stellt Daten für das |
Grammar |
Ein Laufzeitobjekt, das auf eine Spracherkennungsgrammatik verweist, die eine Anwendung verwenden kann, um die Einschränkungen für Spracherkennung zu definieren. |
GrammarBuilder |
Stellt einen Mechanismus für das programmgesteuerte Erstellen von Einschränkungen für eine Spracherkennungsgrammatik bereit. |
LoadGrammarCompletedEventArgs |
Stellt Daten für das |
RecognitionEventArgs |
Enthält Informationen über Spracherkennungsereignisse. |
RecognitionResult |
Enthält ausführliche Informationen zur Eingabe, die von Instanzen der SpeechRecognitionEngine oder SpeechRecognizer erkannt wurde. |
RecognizeCompletedEventArgs |
Stellt Daten für das |
RecognizedAudio |
Stellt eine Audioeingabe dar, die mit einem RecognitionResult zugeordnet ist. |
RecognizedPhrase |
Enthält ausführliche Informationen, die von der Spracherkennung generiert wurden, über die erkannte Eingabe. |
RecognizedWordUnit |
Stellt die unteilbare Einheit der erkannten Sprache bereit. |
RecognizerInfo |
Stellt Informationen zu einer SpeechRecognizer oder SpeechRecognitionEngine-Instanz dar. |
RecognizerUpdateReachedEventArgs |
Gibt Daten von einem RecognizerUpdateReached oder von einem RecognizerUpdateReached-Ereignis zurück. |
ReplacementText |
Enthält Informationen über eine Sprachnormalisierungsprozedur, die auf Erkennungsergebnissen ausgeführt wurde. |
SemanticResultKey |
Ordnet SemanticResultValue-Werten eine Schlüsselzeichenfolge zu, um SemanticValue-Objekte zu definieren. |
SemanticResultValue |
Stellt einen semantischen Wert dar und ordnet optional den Wert einer Komponente einer Spracherkennungsgrammatik zu. |
SemanticValue |
Stellt die semantische Organisation eines erkannten Ausdrucks dar. |
SpeechDetectedEventArgs |
Gibt Daten von SpeechDetected oder von SpeechDetected-Ereignissen zurück. |
SpeechHypothesizedEventArgs |
Gibt eine Benachrichtigung von SpeechHypothesized oder von SpeechHypothesized-Ereignissen zurück. Diese Klasse unterstützt die .NET Framework-Infrastruktur und ist nicht für die direkte Verwendung in Anwendungscode vorgesehen. |
SpeechRecognitionEngine |
Stellt die Möglichkeit bereit, auf eine prozessinterne Spracherkennungs-Engine zuzugreifen und dieses zu verwalten. |
SpeechRecognitionRejectedEventArgs |
Stellt Informationen für das SpeechRecognitionRejected-Ereignis und das SpeechRecognitionRejected-Ereignis bereit. |
SpeechRecognizedEventArgs |
Stellt Informationen für die Ereignisse SpeechRecognized, SpeechRecognized und SpeechRecognized bereit. |
SpeechRecognizer |
Bietet Zugriff auf den freigegebenen Spracherkennungsdienst, der auf dem Windows-Desktop verfügbar ist. |
SpeechUI |
Stellt Text- und Statusinformationen für Erkennungsvorgänge bereit, die in der Sprachplattformbenutzeroberfläche angezeigt werden sollen. |
StateChangedEventArgs |
Gibt Daten von dem StateChanged-Ereignis zurück. |
Enumerationen
AudioSignalProblem |
Enthält eine Liste der möglichen Probleme im Audiosignal, das einer Spracherkennungs-Engine bereitgestellt wird. |
AudioState |
Enthält eine Liste der möglichen Zustände für die Audioeingabe in einer Spracherkennungs-Engine. |
DisplayAttributes |
Listet die Optionen auf, die das SpeechRecognitionEngine-Objekt verwenden kann, um Leerräume für die Anzeige eines Worts oder Satzzeichens anzugeben. |
RecognizeMode |
Listet Werte des Erkennungsmodus auf. |
RecognizerState |
Listet Werte des Zustands der Erkennung auf. |
SubsetMatchingMode |
Listet Werte des Teilmengenübereinstimmungsmodus auf. |
Hinweise
Die Windows Desktop Speech Technology-Software bietet eine grundlegende Spracherkennungsinfrastruktur, die akustische Signale digitalisiert und Wörter und Sprachelemente aus Audioeingaben wiederherstellt.
Anwendungen verwenden den System.Speech.Recognition Namespace, um auf diese grundlegende Spracherkennungstechnologie zuzugreifen und diese zu erweitern, indem Sie Algorithmen zum Identifizieren und Handeln bestimmter Ausdrücke oder Wortmuster definieren und das Laufzeitverhalten dieser Sprachinfrastruktur verwalten.
Erstellen von Grammatiken
Sie erstellen Grammatiken, die aus einer Reihe von Regeln oder Einschränkungen bestehen, um Wörter und Ausdrücke zu definieren, die Ihre Anwendung als aussagekräftige Eingabe erkennt. Mithilfe eines Konstruktors für die Grammar -Klasse können Sie ein Grammatikobjekt zur Laufzeit aus GrammarBuilder oder SrgsDocument aus Instanzen oder aus einer Datei, einer Zeichenfolge oder einem Stream erstellen, der eine Definition einer Grammatik enthält.
Mit den GrammarBuilder Klassen und Choices können Sie programmgesteuert Grammatiken mit niedriger bis mittlerer Komplexität erstellen, die zum Durchführen der Erkennung für viele gängige Szenarien verwendet werden können. Um Grammatiken programmgesteuert zu erstellen, die der Spracherkennungsgrammatikspezifikation 1.0 (SRGS) entsprechen und die Flexibilität der Erstellung von SRGS nutzen möchten, verwenden Sie die Typen des System.Speech.Recognition.SrgsGrammar Namespace. Sie können auch SRGS-Grammatiken im XML-Format mit einem beliebigen Text-Editor erstellen und das Ergebnis verwenden, um - SrgsDocument oder Grammar -Objekte zu erstellenGrammarBuilder.
Darüber hinaus bietet die DictationGrammar Klasse eine spezielle Grammatik zur Unterstützung eines herkömmlichen Diktiermodells.
Weitere Informationen und Beispiele finden Sie unter Erstellen von Grammatiken im System Speech Programming Guide for .NET Framework .
Verwalten von Spracherkennungsmodulen
Instanzen von SpeechRecognizer und SpeechRecognitionEngine mit Grammar -Objekten gelieferte Instanzen bieten den primären Zugriff auf die Spracherkennungs-Engines der Windows-Desktop-Spracherkennungstechnologie.
Sie können die SpeechRecognizer -Klasse verwenden, um Clientanwendungen zu erstellen, die die von Windows bereitgestellte Spracherkennungstechnologie verwenden, die Sie über die Systemsteuerung konfigurieren können. Solche Anwendungen akzeptieren Eingaben über den Standard-Audioeingabemechanismus eines Computers.
Um mehr Kontrolle über die Konfiguration und den Typ der Erkennungs-Engine zu erhalten, erstellen Sie eine Anwendung mit SpeechRecognitionEngine, die prozessintern ausgeführt wird. Mit der SpeechRecognitionEngine -Klasse können Sie auch audioeingaben von Geräten, Dateien oder Streams dynamisch auswählen.
Weitere Informationen finden Sie unter Initialisieren und Verwalten einer Spracherkennungs-Engine im System Speech Programming Guide for .NET Framework .
Reagieren auf Ereignisse
SpeechRecognizer und SpeechRecognitionEngine -Objekte generieren Ereignisse als Reaktion auf Audioeingaben für die Spracherkennungs-Engine. Die AudioLevelUpdated
Ereignisse , AudioSignalProblemOccurred
, AudioStateChanged
werden als Reaktion auf Änderungen im eingehenden Signal ausgelöst. Das SpeechDetected
Ereignis wird ausgelöst, wenn die Spracherkennungs-Engine eingehende Audiodaten als Sprache identifiziert. Die Spracherkennungs-Engine löst das SpeechRecognized
Ereignis aus, wenn die Spracheingabe einer der geladenen Grammatiken zugeordnet wird, und löst den aus, wenn die SpeechRecognitionRejected
Spracheingabe keiner ihrer geladenen Grammatiken entspricht.
Andere Ereignistypen sind das LoadGrammarCompleted
Ereignis, das eine Spracherkennungs-Engine auslöst, wenn sie eine Grammatik geladen hat. Der StateChanged ist exklusiv für die SpeechRecognizer -Klasse, die das Ereignis auslöst, wenn sich der Status der Windows-Spracherkennung ändert.
Sie können registrieren, um für Ereignisse benachrichtigt zu werden, die die Spracherkennungs-Engine auslöst, und Handler mithilfe der Klassen erstellen, die EventsArgs
jedem dieser Ereignisse zugeordnet sind, um das Verhalten Ihrer Anwendung beim Auslösen eines Ereignisses zu programmieren.
Weitere Informationen finden Sie unter Verwenden von Spracherkennungsereignissen im System Speech Programming Guide for .NET Framework .