SpeechRecognizer Klasse

Eine Spracherkennung. Wenn Sie Informationen zur Quellsprache angeben müssen, geben Sie bitte nur einen dieser drei Parameter an: Sprache, source_language_config oder auto_detect_source_language_config.

Vererbung
SpeechRecognizer

Konstruktor

SpeechRecognizer(speech_config: SpeechConfig, audio_config: AudioConfig = None, language: str = None, source_language_config: SourceLanguageConfig = None, auto_detect_source_language_config: AutoDetectSourceLanguageConfig = None)

Parameter

Name Beschreibung
speech_config
Erforderlich

Die Konfiguration für die Spracherkennung

audio_config

Die Konfiguration für die Audioeingabe

Standardwert: None
language

Quellsprache

Standardwert: None
source_language_config

Konfiguration der Quellsprache

Standardwert: None
auto_detect_source_language_config

Die Konfiguration der Quellsprache für die automatische Erkennung

Standardwert: None

Methoden

recognize_once

Führt die Erkennung in einem blockierenden (synchronen) Modus aus. Wird nach der Erkennung einer einzelnen Äußerung wieder verfügbar. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Die Aufgabe gibt als Ergebnis den Erkennungstext zurück. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.

recognize_once_async

Führt die Erkennung in einem nicht blockierenden (asynchronen) Modus aus. Dient zum Erkennen einer einzelnen Äußerung. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.

start_continuous_recognition

Initiiert synchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.

start_continuous_recognition_async

Initiiert asynchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.

start_keyword_recognition

Konfiguriert die Erkennung synchron mit dem angegebenen Schlüsselwort (keyword)-Modell. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.

start_keyword_recognition_async

Konfiguriert die Erkennung asynchron mit dem angegebenen Schlüsselwort (keyword) Modells. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition_async() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.

stop_continuous_recognition

Beendet synchron den fortlaufenden Erkennungsvorgang.

stop_continuous_recognition_async

Beendet asynchron den fortlaufenden Erkennungsvorgang.

stop_keyword_recognition

Beendet synchron die Schlüsselwort (keyword) initiierte Erkennung.

stop_keyword_recognition_async

Beendet asynchron die Schlüsselwort (keyword) initiierte Erkennung.

recognize_once

Führt die Erkennung in einem blockierenden (synchronen) Modus aus. Wird nach der Erkennung einer einzelnen Äußerung wieder verfügbar. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Die Aufgabe gibt als Ergebnis den Erkennungstext zurück. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.

recognize_once() -> SpeechRecognitionResult

Gibt zurück

Typ Beschreibung

Der Ergebniswert der synchronen Erkennung.

recognize_once_async

Führt die Erkennung in einem nicht blockierenden (asynchronen) Modus aus. Dient zum Erkennen einer einzelnen Äußerung. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.

recognize_once_async() -> ResultFuture

Gibt zurück

Typ Beschreibung

Eine Zukunft, die den Ergebniswert der asynchronen Erkennung enthält.

start_continuous_recognition

Initiiert synchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.

start_continuous_recognition()

start_continuous_recognition_async

Initiiert asynchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.

start_continuous_recognition_async() -> ResultFuture

Gibt zurück

Typ Beschreibung

Eine Zukunft, die erfüllt wird, sobald die Erkennung initialisiert wurde.

start_keyword_recognition

Konfiguriert die Erkennung synchron mit dem angegebenen Schlüsselwort (keyword)-Modell. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.

start_keyword_recognition(model: KeywordRecognitionModel)

Parameter

Name Beschreibung
model
Erforderlich

das Schlüsselwort (keyword) Erkennungsmodell, das die zu erkennende Schlüsselwort (keyword) angibt.

start_keyword_recognition_async

Konfiguriert die Erkennung asynchron mit dem angegebenen Schlüsselwort (keyword) Modells. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition_async() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.

start_keyword_recognition_async(model: KeywordRecognitionModel) -> ResultFuture

Parameter

Name Beschreibung
model
Erforderlich

das Schlüsselwort (keyword) Erkennungsmodell, das die zu erkennende Schlüsselwort (keyword) angibt.

Gibt zurück

Typ Beschreibung

Eine Zukunft, die erfüllt wird, sobald die Erkennung initialisiert wurde.

stop_continuous_recognition

Beendet synchron den fortlaufenden Erkennungsvorgang.

stop_continuous_recognition()

stop_continuous_recognition_async

Beendet asynchron den fortlaufenden Erkennungsvorgang.

stop_continuous_recognition_async()

Gibt zurück

Typ Beschreibung

Eine Zukunft, die sich erfüllt, sobald die Anerkennung beendet wurde.

stop_keyword_recognition

Beendet synchron die Schlüsselwort (keyword) initiierte Erkennung.

stop_keyword_recognition()

stop_keyword_recognition_async

Beendet asynchron die Schlüsselwort (keyword) initiierte Erkennung.

stop_keyword_recognition_async()

Gibt zurück

Typ Beschreibung

Eine Zukunft, die sich erfüllt, sobald die Anerkennung beendet wurde.

Attribute

authorization_token

Das Autorisierungstoken, das zum Herstellen einer Verbindung mit dem Dienst verwendet wird.

Hinweis

Der Aufrufer muss sicherstellen, dass das Autorisierungstoken gültig ist. Vor dem

Das Autorisierungstoken läuft ab, der Aufrufer muss es aktualisieren, indem er diesen Setter mit einem aufruft.

neues gültiges Token. Andernfalls treten bei der Erkennung Fehler auf.

canceled

Signal für Ereignisse, die abgesagte Erkennungsergebnisse enthalten (die einen Erkennungsversuch angeben, der als Ergebnis abgebrochen wurde, oder eine direkte Abbruchanforderung oder alternativ einen Transport- oder Protokollfehler).

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SpeechRecognitionCanceledEventArgs, instance als einzelnes Argument aufgerufen.

endpoint_id

Die Endpunkt-ID eines benutzerdefinierten Sprachmodells, das für die Erkennung verwendet wird, oder eines benutzerdefinierten Sprachmodells für die Sprachsynthese.

properties

Eine Auflistung von Eigenschaften und deren Werten, die für diese Erkennung definiert sind.

recognized

Signal für Ereignisse mit endgültigen Erkennungsergebnissen (ein Hinweis auf einen erfolgreichen Erkennungsversuch).

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SpeechRecognitionEventArgs instance als einzelnes Argument aufgerufen, abhängig vom Typ der Erkennung.

recognizing

Signal für Ereignisse, die Zwischenerkennungsergebnisse enthalten.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SpeechRecognitionEventArgs instance als einzelnes Argument aufgerufen.

session_started

Signal für Ereignisse, die den Beginn einer Erkennungssitzung (Vorgang) angeben.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SessionEventArgs instance als einzelnes Argument aufgerufen.

session_stopped

Signal für Ereignisse, die das Ende einer Erkennungssitzung (Vorgang) angeben.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SessionEventArgs instance als einzelnes Argument aufgerufen.

speech_end_detected

Signal für Ereignisse, die das Ende der Sprache anzeigen.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem RecognitionEventArgs instance als einzelnes Argument aufgerufen.

speech_start_detected

Signal für Ereignisse, die den Sprachbeginn angeben.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem RecognitionEventArgs instance als einzelnes Argument aufgerufen.