Freigeben über


com.microsoft.cognitiveservices.speech

Klassen

AudioDataStream

Stellt einen Audiodatenstrom dar, der zum Betreiben von Audiodaten als Datenstrom verwendet wird.

AutoDetectSourceLanguageConfig

Stellt die Konfiguration der automatischen Erkennung der Quellsprache dar, die zum Angeben der möglichen Quellsprachkandidaten verwendet wird Hinweis: close() muss aufgerufen werden, um die zugrunde liegenden Ressourcen freizugeben, die im Objekt gespeichert sind.

AutoDetectSourceLanguageResult

Stellt das Ergebnis der automatischen Erkennung von Quellsprachen dar, die in Version 1.8.0 hinzugefügt wurden

CancellationDetails

Enthält ausführliche Informationen dazu, warum ein Ergebnis abgebrochen wurde.

ClassLanguageModel

Stellt ein Klassensprachmodelldar.

Connection

Connection ist eine Proxyklasse zum Verwalten der Verbindung mit dem Sprachdienst der angegebenen Erkennung.

ConnectionEventArgs

Definiert die Nutzlast für Verbindungsereignisse wie Verbunden/Getrennt.

ConnectionMessage

Verbindungsmeldungstellt implementierungsspezifische Nachrichten dar, die an den Sprachdienst gesendet und empfangen werden.

ConnectionMessageEventArgs

Definiert die Nutzlast für die Ereignisse "Nachrichtempfangen" der Verbindung.

Diagnostics

Native Protokollierung und andere Diagnose

EmbeddedSpeechConfig

Klasse, die die eingebettete Sprachkonfiguration (offline) definiert.

Grammar

Stellt eine generische Grammatik dar, die verwendet wird, um die Genauigkeit der Sprachrekognitons zu verbessern.

GrammarList

Ermöglicht das Hinzufügen mehrerer Grammatiken zu einer Spracherkennung, um die Genauigkeit der Spracherkennung zu verbessern.

HybridSpeechConfig

Klasse, die Hybridkonfigurationen (cloudbasierte und eingebettete) für Spracherkennung und Sprachsynthese definiert.

KeywordRecognitionEventArgs

Definiert den Inhalt einer Schlüsselwort (keyword) erkennende/erkannte Ereignisse.

KeywordRecognitionModel

Stellt ein Schlüsselwort (keyword) Erkennungsmodell dar, um zu erkennen, wann der Benutzer eine Schlüsselwort (keyword) sagt, um weitere Spracherkennung zu initiieren.

KeywordRecognitionResult

Definiert das Ergebnis der Schlüsselwort (keyword) Erkennung.

KeywordRecognizer

Führt Schlüsselwort (keyword) Erkennung für die Spracheingabe aus.

NoMatchDetails

Enthält ausführliche Informationen zu Den Ergebnissen der Erkennung "Keine Übereinstimmung".

PhraseListGrammar

Ermöglicht das Hinzufügen neuer Ausdrücke, um die Spracherkennung zu verbessern.

PronunciationAssessmentConfig

Stellt die Konfiguration der Aussprachebewertung dar.

PronunciationAssessmentResult

Stellt das Ergebnis der Aussprachebewertung dar.

PropertyCollection

Stellt eine Auflistung von Eigenschaften und deren Werten dar.

RecognitionEventArgs

Definiert die Nutzlast für Erkennungsereignisse wie Sprachstart/-Ende erkannt.

RecognitionResult

Enthält ausführliche Informationen zum Ergebnis eines Erkennungsvorgangs.

Recognizer

Definiert die Basisklassenerkennung, die hauptsächlich allgemeine Ereignishandler enthält.

SessionEventArgs

Definiert die Nutzlast für Ereignisse vom Starten/Beenden von Sitzungen.

SourceLanguageConfig

Stellt die Konfiguration der Quellsprache dar, die zum Angeben der Erkennungsquellsprache verwendet wird.

SpeechConfig

Sprachkonfiguration.

SpeechRecognitionCanceledEventArgs

Definiert die Nutzlast abgebrochener Ereignisse bei der Spracherkennung.

SpeechRecognitionEventArgs

Definiert den Inhalt des Spracherkennungs-/Erkennungsereignisses.

SpeechRecognitionModel

Enthält ausführliche Informationen zum Spracherkennungsmodell.

SpeechRecognitionResult

Definiert das Ergebnis der Spracherkennung.

SpeechRecognizer

Führt die Spracherkennung von Mikrofon-, Datei- oder anderen Audioeingabestreams aus und ruft als Ergebnis transkribierten Text ab.

SpeechSynthesisBookmarkEventArgs

Definiert den Inhalt des Textmarkenereignisses für die Sprachsynthese.

SpeechSynthesisCancellationDetails

Enthält ausführliche Informationen dazu, warum eine Sprachsynthese abgebrochen wurde.

SpeechSynthesisEventArgs

Definiert den Inhalt des Sprachsyntheseereignisses.

SpeechSynthesisResult

Enthält ausführliche Informationen zum Ergebnis eines Sprachsynthesevorgangs.

SpeechSynthesisVisemeEventArgs

Definiert den Inhalt des Visemereignisses für die Sprachsynthese.

SpeechSynthesisWordBoundaryEventArgs

Definiert den Inhalt des Wortbegrenzungsereignisses für die Sprachsynthese.

SpeechSynthesizer

Führt Sprachsynthese für Lautsprecher-, Datei- oder andere Audioausgabestreams aus und ruft als Ergebnis synthetisierte Audiodaten ab.

SpeechTranslationModel

Enthält detaillierte Informationen zum Sprachübersetzungsmodell.

SynthesisVoicesResult

Enthält ausführliche Informationen zur Liste der abgerufenen Synthesestimden.

VoiceInfo

Enthält ausführliche Informationen zu den Sprachsyntheseinformationen.

Enumerationen

CancellationErrorCode

Definiert den Fehlercode für den Fall, dass der AbbruchgrundFehler ist.

CancellationReason

Definiert die möglichen Gründe, warum ein Erkennungsergebnis abgebrochen werden kann.

NoMatchReason

Definiert die möglichen Gründe, warum ein Erkennungsergebnis möglicherweise nicht erkannt wird.

OutputFormat

Definieren von Ausgabeformaten für die Spracherkennung

ProfanityOption

Definieren Sie die Option "Obszönitäten" für das Antwortergebnis.

PronunciationAssessmentGradingSystem

Definiert das Punktsystem für die Aussprachebewertungskalibrierung; Der Standardwert ist FivePoint.

PronunciationAssessmentGranularity

Definiert die Granularität der Ausspracheauswertung; Der Standardwert ist Phoneme.

PropertyId

Definiert Eigenschafts-IDs.

ResultReason

Definiert die möglichen Gründe für die Generierung eines Erkennungsergebnisses.

ServicePropertyChannel

Definiert Kanäle, die zum Senden von Diensteigenschaften verwendet werden.

SpeechSynthesisBoundaryType

Definiert den Begrenzungstyp des Begrenzungsereignisses für die Sprachsynthese.

SpeechSynthesisOutputFormat

Definiert das mögliche Audioformat für die Sprachsyntheseausgabe.

StreamStatus

Definiert die mögliche status des Audiodatenstroms.

SynthesisVoiceGender

Definieren Sie das Geschlecht der Synthesestimme.

SynthesisVoiceType

Definieren Sie den Synthesestimmtyp.