Udostępnij za pośrednictwem


System.Speech.Recognition Przestrzeń nazw

Zawiera typy technologii rozpoznawania mowy dla komputerów z systemem Windows do implementowania rozpoznawania mowy.

Klasy

AudioLevelUpdatedEventArgs

Dostarcza dane dla AudioLevelUpdated zdarzenia SpeechRecognizer klasy lub SpeechRecognitionEngine .

AudioSignalProblemOccurredEventArgs

Dostarcza dane dotyczące AudioSignalProblemOccurred zdarzenia obiektu SpeechRecognizer lub .SpeechRecognitionEngine

AudioStateChangedEventArgs

Dostarcza dane dla AudioStateChanged zdarzenia SpeechRecognizer klasy lub SpeechRecognitionEngine .

Choices

Reprezentuje zestaw alternatyw w ograniczeniach gramatyki rozpoznawania mowy.

DictationGrammar

Reprezentuje gramatykę rozpoznawania mowy używaną do swobodnego dyktowania tekstu.

EmulateRecognizeCompletedEventArgs

Dostarcza dane dla EmulateRecognizeCompleted zdarzenia SpeechRecognizer klas i SpeechRecognitionEngine .

Grammar

Obiekt środowiska uruchomieniowego odwołujący się do gramatyki rozpoznawania mowy, której aplikacja może użyć do zdefiniowania ograniczeń rozpoznawania mowy.

GrammarBuilder

Zapewnia mechanizm programowego tworzenia ograniczeń dla gramatyki rozpoznawania mowy.

LoadGrammarCompletedEventArgs

Dostarcza dane dla LoadGrammarCompleted zdarzenia SpeechRecognizer obiektu lub SpeechRecognitionEngine .

RecognitionEventArgs

Zawiera informacje o zdarzeniach rozpoznawania mowy.

RecognitionResult

Zawiera szczegółowe informacje o danych wejściowych, które zostały rozpoznane przez wystąpienia elementu SpeechRecognitionEngine lub SpeechRecognizer.

RecognizeCompletedEventArgs

Dostarcza dane dla RecognizeCompleted zdarzenia zgłoszonego SpeechRecognitionEngine przez obiekt lub SpeechRecognizer .

RecognizedAudio

Reprezentuje dane wejściowe audio skojarzone z elementem RecognitionResult.

RecognizedPhrase

Zawiera szczegółowe informacje generowane przez rozpoznawanie mowy dotyczące rozpoznanych danych wejściowych.

RecognizedWordUnit

Zapewnia niepodzielna jednostka rozpoznanej mowy.

RecognizerInfo

Reprezentuje informacje o wystąpieniu SpeechRecognizer lub SpeechRecognitionEngine .

RecognizerUpdateReachedEventArgs

Zwraca dane ze RecognizerUpdateReached zdarzenia lub RecognizerUpdateReached .

ReplacementText

Zawiera informacje o procedurze normalizacji mowy, która została wykonana na wynikach rozpoznawania.

SemanticResultKey

Kojarzy ciąg klucza z wartościami SemanticResultValue w celu zdefiniowania SemanticValue obiektów.

SemanticResultValue

Reprezentuje wartość semantyczną i opcjonalnie kojarzy wartość ze składnikiem gramatyki rozpoznawania mowy.

SemanticValue

Reprezentuje semantyczną organizację rozpoznanej frazy.

SpeechDetectedEventArgs

Zwraca dane z zdarzeń SpeechDetected lub SpeechDetected .

SpeechHypothesizedEventArgs

Zwraca powiadomienie z zdarzeń SpeechHypothesized lub SpeechHypothesized .

Ta klasa obsługuje infrastrukturę programu .NET Framework i nie jest przeznaczona do użycia bezpośrednio z kodu aplikacji.

SpeechRecognitionEngine

Zapewnia dostęp do aparatu rozpoznawania mowy w procesie i zarządzanie nim.

SpeechRecognitionRejectedEventArgs

Zawiera informacje o zdarzeniach SpeechRecognitionRejected i SpeechRecognitionRejected .

SpeechRecognizedEventArgs

Zawiera informacje o zdarzeniach SpeechRecognized, SpeechRecognizedi SpeechRecognized .

SpeechRecognizer

Zapewnia dostęp do usługi rozpoznawania mowy udostępnionej dostępnej na pulpicie systemu Windows.

SpeechUI

Udostępnia informacje tekstowe i informacje o stanie operacji rozpoznawania, które mają być wyświetlane w interfejsie użytkownika platformy rozpoznawania mowy.

StateChangedEventArgs

Zwraca dane ze StateChanged zdarzenia.

Wyliczenia

AudioSignalProblem

Zawiera listę możliwych problemów w sygnale dźwiękowym przychodzącym do aparatu rozpoznawania mowy.

AudioState

Zawiera listę możliwych stanów danych wejściowych audio do aparatu rozpoznawania mowy.

DisplayAttributes

Wyświetla opcje, których SpeechRecognitionEngine obiekt może używać do określania białych znaków do wyświetlania wyrazu lub znaku interpunkcyjnego.

RecognizeMode

Wylicza wartości trybu rozpoznawania.

RecognizerState

Wylicza wartości stanu obiektu rozpoznającego.

SubsetMatchingMode

Wylicza wartości trybu dopasowania podzestawu.

Uwagi

Oprogramowanie Windows Desktop Speech Technology oferuje podstawową infrastrukturę rozpoznawania mowy, która cyfryzuje sygnały akustyczne i odzyskuje słowa i elementy mowy z danych wejściowych dźwięku.

Aplikacje używają System.Speech.Recognition przestrzeni nazw do uzyskiwania dostępu do tej podstawowej technologii rozpoznawania mowy i rozszerzania jej przez definiowanie algorytmów identyfikowania i działania na określonych frazach lub wzorcach słów oraz przez zarządzanie zachowaniem środowiska uruchomieniowego tej infrastruktury mowy.

Tworzenie gramatyki

Tworzysz gramatyki składające się z zestawu reguł lub ograniczeń, aby zdefiniować wyrazy i frazy rozpoznawane przez aplikację jako znaczące dane wejściowe. Przy użyciu konstruktora Grammar dla klasy można utworzyć obiekt gramatyki w czasie wykonywania z GrammarBuilder lub SrgsDocument wystąpień albo z pliku, ciągu lub strumienia, który zawiera definicję gramatyki.

GrammarBuilder Za pomocą klas i Choices można programowo tworzyć gramatyki o niskiej lub średniej złożoności, które mogą służyć do rozpoznawania w wielu typowych scenariuszach. Aby programowo tworzyć gramatyki zgodne ze specyfikacją gramatyki rozpoznawania mowy 1.0 (SRGS) i korzystać z elastyczności tworzenia SRGS, użyj typów System.Speech.Recognition.SrgsGrammar przestrzeni nazw. Możesz również utworzyć gramatyki SRGS w formacie XML przy użyciu dowolnego edytora tekstu i użyć wyniku do utworzenia GrammarBuilderobiektów , SrgsDocument lub Grammar .

Ponadto DictationGrammar klasa zapewnia specjalną gramatykę wielkości liter do obsługi konwencjonalnego modelu dyktowania.

Aby uzyskać więcej informacji i przykłady, zobacz Create Grammars in the System Speech Programming Guide for .NET Framework (Tworzenie gramatyki w podręczniku programowania mowy systemu dla programu .NET Framework ).

Zarządzanie aparatami rozpoznawania mowy

Wystąpienia obiektów SpeechRecognizer i SpeechRecognitionEngine dostarczane z obiektami Grammar zapewniają podstawowy dostęp do aparatów rozpoznawania mowy technologii Rozpoznawanie mowy w systemie Windows Desktop.

Za pomocą SpeechRecognizer klasy można tworzyć aplikacje klienckie korzystające z technologii rozpoznawania mowy dostarczonej przez system Windows, którą można skonfigurować za pomocą Panelu sterowania. Takie aplikacje akceptują dane wejściowe za pośrednictwem domyślnego mechanizmu wprowadzania audio komputera.

Aby uzyskać większą kontrolę nad konfiguracją i typem aparatu rozpoznawania, skompiluj aplikację przy użyciu polecenia SpeechRecognitionEngine, która jest uruchamiana w procesie. SpeechRecognitionEngine Za pomocą klasy można również dynamicznie wybierać dane wejściowe audio z urządzeń, plików lub strumieni.

Aby uzyskać więcej informacji, zobacz Inicjowanie aparatu rozpoznawania mowy i zarządzanie nim w przewodniku programowania mowy systemu dla programu .NET Framework .

Reagowanie na zdarzenia

SpeechRecognizer i SpeechRecognitionEngine obiekty generują zdarzenia w odpowiedzi na dane wejściowe audio aparatu rozpoznawania mowy. Zdarzenia AudioLevelUpdated, AudioSignalProblemOccurredAudioStateChanged są zgłaszane w odpowiedzi na zmiany sygnału przychodzącego. Zdarzenie SpeechDetected jest zgłaszane, gdy aparat rozpoznawania mowy identyfikuje przychodzący dźwięk jako mowę. Aparat rozpoznawania mowy zgłasza SpeechRecognized zdarzenie, gdy pasuje do danych wejściowych mowy do jednej z załadowanych gramatyki i zgłasza SpeechRecognitionRejected , gdy dane wejściowe mowy nie pasują do żadnej z załadowanych gramatyk.

Inne typy zdarzeń obejmują LoadGrammarCompleted zdarzenie, które jest wywoływane przez aparat rozpoznawania mowy po załadowaniu gramatyki. Element StateChanged jest wyłączny SpeechRecognizer dla klasy, która zgłasza zdarzenie, gdy zmieni się stan rozpoznawania mowy systemu Windows.

Możesz zarejestrować się w celu powiadamiania o zdarzeniach zgłaszanych przez aparat rozpoznawania mowy i tworzyć programy obsługi przy użyciu EventsArgs klas skojarzonych z każdym z tych zdarzeń w celu zaprogramowania zachowania aplikacji po wystąpieniu zdarzenia.

Aby uzyskać więcej informacji, zobacz Using Speech Recognition Events in the System Speech Programming Guide for .NET Framework (Używanie zdarzeń rozpoznawania mowy w przewodniku programowania mowy systemu dla programu .NET Framework).

Zobacz też