Microsoft.CognitiveServices.Speech Namespace
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Klassen
AudioDataStream |
Stellt Audiodaten als Stream bereit. In Version 1.4.0 hinzugefügt |
AutoDetectSourceLanguageConfig |
Konfiguriert Optionen für die automatische Erkennung von Sprachen. Aktualisiert in 1.13.0 |
AutoDetectSourceLanguageResult |
Enthält sprachen, die vom Speech-Dienst erkannt wurden. Hinzugefügt in 1.9.0 |
CancellationDetails |
Enthält ausführliche Informationen dazu, warum ein Ergebnis abgebrochen wurde. |
ClassLanguageModel |
Stellt eine Liste von Grammatiken für dynamische Grammatikszenarien dar. In Version 1.7.0 hinzugefügt |
Connection |
Eine Proxyklasse zum Verwalten der Verbindung mit dem Sprachdienst der angegebenen Erkennung. In Version 1.2.0 hinzugefügt |
ConnectionEventArgs |
Enthält Nutzlast für verbundene/getrennte Ereignisse, die in Version 1.2.0 hinzugefügt wurden |
ConnectionMessage |
Stellt implementierungsspezifische Nachrichten dar, die an den Sprachdienst gesendet und empfangen werden. Nur für das Debuggen vorgesehen. Hinzugefügt in Version 1.10.0 |
ConnectionMessageEventArgs |
Enthält Die Nutzlast für MessageReceived-Ereignisse eines Connection-instance. Hinzugefügt in Version 1.10.0 |
DetailedSpeechRecognitionResult |
Enthält Erkennungsdetails wie Konfidenzbewertung, erkannter Text, unformatierte lexikalische Form, normalisierte Form und normalisierte Form mit maskierter Obszönität. Geändert in 1.7.0 |
EmbeddedSpeechConfig |
Klasse, die die eingebettete Sprachkonfiguration (offline) definiert. |
Grammar |
Stellt die Basisklassengrammatik zum Anpassen der Spracherkennung dar. In Version 1.5.0 hinzugefügt |
GrammarList |
Stellt eine Liste von Grammatiken für dynamische Grammatikszenarien dar. In Version 1.7.0 hinzugefügt |
GrammarPhrase |
Stellt einen Ausdruck dar, der vom Benutzer gesprochen werden kann. In Version 1.5.0 hinzugefügt |
HybridSpeechConfig |
Klasse, die Hybridkonfigurationen (cloudbasierte und eingebettete) für Spracherkennung und Sprachsynthese definiert. |
KeywordRecognitionEventArgs |
Klasse für die ereignisse, die KeywordRecognizervon ausgegeben werden. |
KeywordRecognitionModel |
Stellt Schlüsselwort (keyword) Erkennungsmodell dar, das ein Ereignis auslösen kann, wenn vordefinierte Schlüsselwörter gesprochen werden. |
KeywordRecognitionResult |
Enthält die von ausgegebenen KeywordRecognizerErgebnisse. |
KeywordRecognizer |
Erkennt ein Wort oder einen kurzen Ausdruck mithilfe eines Schlüsselwort (keyword)-Modells. |
NoMatchDetails |
Enthält ausführliche Informationen zu NoMatch-Erkennungsergebnissen. |
PhonemeLevelTimingResult |
Ergebnis der Zeitsteuerung auf Phonemebene. Hinzugefügt in 1.14.0 |
PhraseListGrammar |
Identifiziert bekannte Ausdrücke in Audiodaten. In Version 1.5.0 hinzugefügt |
PronunciationAssessmentNBestPhoneme |
Aussprachebewertung nbest phoneme ergebnis In 1.20.0 hinzugefügt |
PropertyCollection |
Klasse zum Abrufen oder Festlegen eines Eigenschaftswerts aus einer Eigenschaftsauflistung. |
RecognitionEventArgs |
Enthält Nutzlast für Erkennungsereignisse wie Sprachstart/-Ende erkannt. |
RecognitionResult |
Enthält ausführliche Informationen zum Ergebnis eines Erkennungsvorgangs. |
Recognizer |
Basisklasse, die größtenteils allgemeine Ereignishandler enthält. |
SessionEventArgs |
Enthält Nutzlast für SessionStarted - und SessionStopped -Ereignisse. |
SourceLanguageConfig |
Konfiguration der Quellsprache. Hinzugefügt in 1.17.0 |
SourceLanguageRecognizer |
Erkennt die gesprochene Sprache im Eingabeaudio. In Version 1.17.0 hinzugefügt |
SpeechConfig |
Informationen zu Ihrem Abonnement, einschließlich Schlüssel und Region, Endpunkt, Host oder Autorisierungstoken. |
SpeechRecognitionCanceledEventArgs |
Enthält die Nutzlast abgebrochener Ergebnisereignisse bei der Spracherkennung. |
SpeechRecognitionEventArgs |
Enthält die Nutzlast von Spracherkennungs-/erkannten Ereignissen. |
SpeechRecognitionModel |
Informationen zum Spracherkennungsmodell. |
SpeechRecognitionResult |
Enthält das Ergebnis der Spracherkennung. |
SpeechRecognitionResultExtensions |
Erweiterungsmethoden für das Ergebnis der Spracherkennung |
SpeechRecognizer |
Transkribiert Sprache in Text. Die Sprache kann über Mikrofon, Audiodatei oder einen anderen Audioeingabestream empfangen werden. |
SpeechSynthesisBookmarkEventArgs |
Enthält ein Lesezeichenereignis in synthetisierter Sprache. Hinzugefügt in 1.16.0 |
SpeechSynthesisCancellationDetails |
Enthält ausführliche Informationen dazu, warum ein Sprachsyntheseergebnis abgebrochen wurde. In Version 1.4.0 hinzugefügt |
SpeechSynthesisEventArgs |
Enthält die Nutzlast von Sprachsyntheseereignissen. In Version 1.4.0 hinzugefügt |
SpeechSynthesisResult |
Enthält ausführliche Informationen zum Ergebnis eines Sprachsynthesevorgangs. In Version 1.4.0 hinzugefügt |
SpeechSynthesisVisemeEventArgs |
Enthält Gesichtsposeereignisse, die zeitbasierten Offsets in synthetisierter Sprache entsprechen. Hinzugefügt in 1.16.0 |
SpeechSynthesisWordBoundaryEventArgs |
Enthält Positions- und Längendetails zu Wörtern in synthetisierter Sprache. In Version 1.7.0 hinzugefügt |
SpeechSynthesizer |
Führt Sprachsynthese für Lautsprecher-, Datei- oder andere Audioausgabestreams aus und ruft als Ergebnis synthetisierte Audiodaten ab. Aktualisiert in 1.16.0 |
SpeechTranslationConfig |
Sprachübersetzungskonfiguration. |
SpeechTranslationModel |
Informationen zum Sprachübersetzungsmodell. |
SyllableLevelTimingResult |
Ergebnis der Zeitsteuerung auf Silbenebene. Hinzugefügt in 1.20.0 |
SynthesisVoicesResult |
Enthält ausführliche Informationen zur Liste der abgerufenen Synthesestimden. Hinzugefügt in 1.16.0 |
VoiceInfo |
Enthält ausführliche Informationen zur Synthesestimme. Aktualisiert in 1.17.0 |
WordLevelTimingResult |
Enthält für ein erkanntes Wort in Sprachaudio den Offset zum Start und die Dauer in Ticks. 1 Tick = 100 ns. In Version 1.7.0 hinzugefügt |
Enumerationen
CancellationErrorCode |
Listet Fehlercodes auf, die möglich sind, wenn CancellationReason ist Error. In Version 1.1.0 hinzugefügt |
CancellationReason |
Listet die möglichen Gründe auf, warum ein Erkennungsergebnis abgebrochen werden kann. |
NoMatchReason |
Listet die möglichen Gründe auf, warum ein Erkennungsergebnis nicht erkannt wurde. |
OutputFormat |
Ausgabeformat. |
ProfanityOption |
Entfernt Anstößigkeiten (Fluchen), oder ersetzt Buchstaben von profanen Wörtern durch Sterne. In Version 1.5.0 hinzugefügt |
PropertyId |
Listet Spracheigenschaften-IDs auf. |
RecognitionFactorScope |
Listet den Bereich auf, für den ein Erkennungsfaktor gilt. |
ResultReason |
Beschreibt ein Erkennungsergebnis. |
ServicePropertyChannel |
Listet Kanäle auf, die zum Übergeben von Eigenschafteneinstellungen an den Dienst verwendet werden. In Version 1.5.0 hinzugefügt |
SpeechSynthesisBoundaryType |
Definiert den Begrenzungstyp des In Version 1.21.0 hinzugefügten Sprachsynthesebegrenzungsereignisses |
SpeechSynthesisOutputFormat |
Listet Audioformate für die Syntheseausgabe auf. |
StreamStatus |
Listet mögliche status Werte eines Audiodatenstroms auf. In Version 1.4.0 hinzugefügt |
SynthesisVoiceGender |
Listet das Stimmgeschlecht der Synthese auf. In Version 1.17.0 hinzugefügt |
SynthesisVoiceType |
Listet Sprachsynthesetypen auf. |
Azure SDK for .NET