Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Zusammenfassung
Angehörige | Beschreibungen |
---|---|
Enumeration PropertyId- | Definiert Spracheigenschaften-IDs. Geändert in Version 1.4.0. |
Enumeration OutputFormat | Ausgabeformat. |
Aufzählung ProfanityOption | Entfernt Profanität (Schwören) oder ersetzt Buchstaben von profanen Wörtern durch Sterne. In Version 1.5.0 hinzugefügt. |
Enumeration ResultReason | Gibt die möglichen Gründe an, warum ein Erkennungsergebnis generiert werden kann. |
Enumeration CancellationReason | Definiert die möglichen Gründe, warum ein Erkennungsergebnis abgebrochen werden kann. |
Enumeration CancellationErrorCode | Definiert den Fehlercode, wenn "CancellationReason" "Error" lautet. In Version 1.1.0 hinzugefügt. |
Enumeration NoMatchReason | Definiert die möglichen Gründe, warum ein Erkennungsergebnis möglicherweise nicht erkannt wird. |
Enumeration ActivityJSONType | Definiert die möglichen Typen für einen Aktivitäts-JSON-Wert. In Version 1.5.0 hinzugefügt. |
Enumeration SpeechSynthesisOutputFormat | Definiert die möglichen Audioformate für die Sprachsynthese. Aktualisiert in Version 1.19.0. |
StreamStatus- aufzählen | Definiert den möglichen Status des Audiodatenstroms. In Version 1.4.0 hinzugefügt. |
Enumeration ServicePropertyChannel | Definiert Kanäle, die zum Übergeben von Eigenschaftseinstellungen an den Dienst verwendet werden. In Version 1.5.0 hinzugefügt. |
Enumeration VoiceProfileType | Definiert VoIP-Profiltypen. |
Enumeration RecognitionFactorScope | Definiert den Bereich, auf den ein Erkennungsfaktor angewendet wird. |
Enumeration PronunciationAssessmentGradingSystem | Definiert das Punktsystem für die Aussprachebewertungskalibrierung; Der Standardwert ist FivePoint. In Version 1.14.0 hinzugefügt. |
Enumeration PronunciationAssessmentGranularity | Definiert die Granularität der Ausspracheauswertung; Der Standardwert ist "Phoneme". In Version 1.14.0 hinzugefügt. |
Enumeration SynthesisVoiceType | Definiert den Typ der Synthesestimmchen, die in Version 1.16.0 hinzugefügt wurden. |
Enumeration SynthesisVoiceGender | Definiert das Geschlecht der Synthesestimmungen, die in Version 1.17.0 hinzugefügt wurden. |
Enumeration SynthesisVoiceStatus | Definiert den Status von Synthesestimmchen. |
Enumeration SpeechSynthesisBoundaryType | Definiert den Grenztyp des Sprachsynthesebegrenzungsereignisses, das in Version 1.21.0 hinzugefügt wurde. |
SegmentationStrategy | Die Strategie, die verwendet wird, um zu bestimmen, wann ein gesprochener Ausdruck beendet wurde, und ein endgültiges erkanntes Ergebnis sollte generiert werden. Zulässige Werte sind "Default", "Time" und "Semantic". |
Klasse AsyncRecognizer | AsyncRecognizer abstrakte Basisklasse. |
Klasse "AudioDataStream"- | Stellt den Audiodatenstrom dar, der für das Ausführen von Audiodaten als Datenstrom verwendet wird. In Version 1.4.0 hinzugefügt. |
Klasse AutoDetectSourceLanguageConfig | Klasse, die die Konfiguration der automatischen Erkennungsquelle definiert, aktualisiert in 1.13.0. |
Klasse AutoDetectSourceLanguageResult | Enthält das automatisch erkannte Quellsprachenergebnis 1.8.0 hinzugefügt. |
Klasse BaseAsyncRecognizer | BaseAsyncRecognizer-Klasse. |
Klasse CancellationDetails | Enthält detaillierte Informationen dazu, warum ein Ergebnis abgebrochen wurde. |
Klasse ClassLanguageModel | Stellt eine Liste der Grammatiken für dynamische Grammatikszenarien dar. In Version 1.7.0 hinzugefügt. |
Klasse Connection | Die Verbindung ist eine Proxyklasse zum Verwalten der Verbindung mit dem Sprachdienst der angegebenen Erkennung. Standardmäßig verwaltet ein Erkennungsmodul bei Bedarf die Verbindung mit dem Dienst autonom. Die Connection-Klasse bietet zusätzliche Methoden für Benutzer, um eine Verbindung explizit zu öffnen oder zu schließen und Verbindungsstatusänderungen zu abonnieren. Die Verwendung von "Connection" ist optional. Es ist für Szenarien vorgesehen, in denen eine feinabstimmung des Anwendungsverhaltens basierend auf dem Verbindungsstatus erforderlich ist. Benutzer können optional Open() aufrufen, um eine Dienstverbindung manuell zu initiieren, bevor die Erkennung für die erkennung gestartet wird, die dieser Verbindung zugeordnet ist. Nach dem Starten einer Erkennung schlägt möglicherweise ein Fehler beim Aufrufen von Open() oder Close() fehl. Dies wirkt sich nicht auf die Erkennung oder die fortlaufende Erkennung aus. Die Verbindung kann aus verschiedenen Gründen fallen, die Erkennung versucht immer, die Verbindung nach Bedarf erneut zu erstellen, um laufende Vorgänge zu gewährleisten. In all diesen Fällen geben verbundene/getrennte Ereignisse die Änderung des Verbindungsstatus an. Aktualisiert in Version 1.17.0. |
Klasse ConnectionEventArgs | Stellt Daten für das ConnectionEvent bereit. In Version 1.2.0 hinzugefügt. |
Klasse ConnectionMessage | ConnectionMessage stellt implementierungsspezifische Nachrichten dar, die an den Sprachdienst gesendet und empfangen werden. Diese Nachrichten werden für Debuggingzwecke bereitgestellt und sollten nicht für Produktionsanwendungsfälle mit dem Azure Cognitive Services Speech Service verwendet werden. Nachrichten, die an den Sprachdienst gesendet und empfangen werden, können ohne Vorherige Ankündigung geändert werden. Dazu gehören Nachrichteninhalte, Kopfzeilen, Nutzlasten, Sortierung usw. In Version 1.10.0 hinzugefügt. |
Klasse ConnectionMessageEventArgs | Stellt Daten für "ConnectionMessageEvent" bereit. |
Klasse EmbeddedSpeechConfig | Klasse, die eingebettete (Offline)-Sprachkonfiguration definiert. |
Class EventArgs | Basisklasse für Ereignisargumente. |
-Klasse EventSignal- | Clients können eine Verbindung mit dem Ereignissignal herstellen, um Ereignisse zu empfangen, oder die Verbindung mit dem Ereignissignal trennen, um den Empfang von Ereignissen zu beenden. |
Klasse EventSignalBase | Clients können eine Verbindung mit dem Ereignissignal herstellen, um Ereignisse zu empfangen, oder die Verbindung mit dem Ereignissignal trennen, um den Empfang von Ereignissen zu beenden. |
Grammatik | Stellt die Grammatik der Basisklasse zum Anpassen der Spracherkennung dar. In Version 1.5.0 hinzugefügt. |
der Klasse "GrammarList" | Stellt eine Liste der Grammatiken für dynamische Grammatikszenarien dar. In Version 1.7.0 hinzugefügt. |
Klasse GrammarPhrase | Stellt einen Ausdruck dar, der vom Benutzer gesprochen werden kann. In Version 1.5.0 hinzugefügt. |
Klasse HybridSpeechConfig | Klasse, die Hybridkonfigurationen (Cloud und eingebettete) Konfigurationen für die Spracherkennung oder Sprachsynthese definiert. |
Klasse KeywordRecognitionEventArgs | Klasse für die Ereignisse, die vom KeywordRecognizeremmitiert werden. |
Klasse KeywordRecognitionModel | Stellt das Schlüsselworterkennungsmodell dar, das mit StartKeywordRecognitionAsync-Methoden verwendet wird. |
Klasse KeywordRecognitionResult | Klasse, die die vom KeywordRecognizerausgegebenen Ergebnisse definiert. |
Klasse KeywordRecognizer | Erkennungstyp, der nur für die Behandlung der Schlüsselwortaktivierung spezialisiert ist. |
Klasse NoMatchDetails | Enthält detaillierte Informationen zu NoMatch-Erkennungsergebnissen. |
Klasse PersonalVoiceSynthesisRequest | Klasse, die die Sprachsyntheseanforderung für persönliche Stimme (aka.ms/azureai/personal-voice) definiert. Diese Klasse befindet sich in der Vorschau und kann geändert werden. In Version 1.39.0 hinzugefügt. |
Klasse PhraseListGrammar | Stellt eine Grammatik der Begriffsliste für dynamische Grammatikszenarien dar. In Version 1.5.0 hinzugefügt. |
Klasse PronunciationAssessmentConfig | Klasse, die die Konfiguration der Aussprachebewertung definiert, die in 1.14.0 hinzugefügt wurde. |
Klasse PronunciationAssessmentResult | Klasse für Die Ergebnisse der Aussprachebewertung. |
Klasse PronunciationContentAssessmentResult | Klasse für Ergebnisse der Inhaltsbewertung. |
Class PropertyCollection- | Klasse zum Abrufen oder Festlegen eines Eigenschaftswerts aus einer Eigenschaftssammlung. |
Class RecognitionEventArgs | Stellt Daten für das RecognitionEvent bereit. |
Class RecognitionResult- | Enthält detaillierte Informationen zum Ergebnis eines Erkennungsvorgangs. |
klassenerkennung | Erkennungsbasisklasse. |
Class SessionEventArgs | Basisklasse für Sitzungsereignisargumente. |
Klasse SmartHandle- | Klasse der intelligenten Griffe. |
Klasse SourceLanguageConfig | Klasse, die die Quellsprachenkonfiguration definiert, hinzugefügt in 1.8.0. |
Klasse SourceLanguageRecognizer | Klasse für Quellspracherkennungen. Sie können diese Klasse für die eigenständige Spracherkennung verwenden. In Version 1.17.0 hinzugefügt. |
Klasse SpeechConfig | Klasse, die Konfigurationen für die Sprach-/Absichtserkennung oder Die Sprachsynthese definiert. |
Klasse SpeechRecognitionCanceledEventArgs | Klasse für spracherkennung abgebrochene Ereignisargumente. |
Klasse SpeechRecognitionEventArgs | Klasse für Spracherkennungsereignisargumente. |
Klasse SpeechRecognitionModel | Informationen zum Spracherkennungsmodell. |
Klasse SpeechRecognitionResult | Basisklasse für Spracherkennungsergebnisse. |
Klasse SpeechRecognizer | Klasse für Spracherkennungen. |
Klasse SpeechSynthesisBookmarkEventArgs | Klasse für Sprachsynthese-Textmarkenereignisargumente. In Version 1.16.0 hinzugefügt. |
Klasse SpeechSynthesisCancellationDetails | Enthält detaillierte Informationen dazu, warum ein Ergebnis abgebrochen wurde. In Version 1.4.0 hinzugefügt. |
Klasse SpeechSynthesisEventArgs | Klasse für Sprachsynthese-Ereignisargumente. In Version 1.4.0 hinzugefügt. |
Klasse SpeechSynthesisRequest | Klasse, die die Sprachsyntheseanforderung definiert. Diese Klasse befindet sich in der Vorschau und kann geändert werden. In Version 1.37.0 hinzugefügt. |
Klasse SpeechSynthesisResult | Enthält Informationen zum Ergebnis aus der Text-zu-Sprache-Synthese. In Version 1.4.0 hinzugefügt. |
Klasse SpeechSynthesisVisemeEventArgs | Klasse für sprachsynthese viseme-Ereignisargumente. In Version 1.16.0 hinzugefügt. |
Klasse SpeechSynthesisWordBoundaryEventArgs | Klasse für Wortbegrenzungsereignisargumente für die Sprachsynthese. In Version 1.7.0 hinzugefügt. |
Klasse SpeechSynthesizer | Klasse für Sprachsynthesizer. Aktualisiert in Version 1.14.0. |
Klasse SpeechTranslationModel | Informationen zum Sprachübersetzungsmodell. |
Klasse SynthesisVoicesResult | Enthält Informationen zum Ergebnis aus der Stimmenliste von Sprachsynthesizern. In Version 1.16.0 hinzugefügt. |
VoiceInfo- | Enthält Informationen zu Synthesestimmeinformationen, die in Version 1.17.0 aktualisiert wurden. |
Angehörige
Enumeration PropertyId
Werte | Beschreibungen |
---|---|
SpeechServiceConnection_Key | Der Abonnementschlüssel "Cognitive Services Speech Service". Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint | Der Endpunkt des Cognitive Services Speech Service (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromEndpoint. HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird. |
SpeechServiceConnection_Region | Die Region Cognitive Services Speech Service. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token | Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type | Der Autorisierungstyp "Cognitive Services Speech Service". Derzeit nicht verwendet. |
SpeechServiceConnection_EndpointId | Die Id des Benutzerdefinierten Spracherkennungs- oder benutzerdefinierten VoIP-Diensts. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetEndpointId. HINWEIS: Die Endpunkt-ID ist im benutzerdefinierten Sprachportal verfügbar, das unter "Endpunktdetails" aufgeführt ist. |
SpeechServiceConnection_Host | Der Cognitive Services Speech Service-Host (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName | Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyPort | Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyUserName | Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyPassword | Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_Url | Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. HINWEIS: In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_ProxyHostBypass | Gibt die Liste der Hosts an, für die Proxys nicht verwendet werden sollen. Diese Einstellung setzt alle anderen Konfigurationen außer Kraft. Hostnamen werden durch Kommas getrennt und auf eine Groß-/Kleinschreibung abgeglichen. Wildcards werden nicht unterstützt. |
SpeechServiceConnection_TranslationToLanguages | Die Liste der durch Kommas getrennten Sprachen, die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::AddTargetLanguage und SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice | Der Name des Cognitive Service Text to Speech Service Voice. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::SetVoiceName. HINWEIS: Gültige Sprachnamen finden Sie hier. |
SpeechServiceConnection_TranslationFeatures | Übersetzungsfeatures. Für die interne Verwendung. |
SpeechServiceConnection_IntentRegion | Die Region "Sprachverständnisdienst". Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode | Der Erkennungsmodus "Cognitive Services Speech Service". Kann "INTERACTIVE", "CONVERSATION", "DICTATION" lauten. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. |
SpeechServiceConnection_RecoLanguage | Die gesprochene Sprache, die erkannt werden soll (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId | Die Sitzungs-ID. Diese ID ist ein universal eindeutiger Bezeichner (auch UUID genannt), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennungsinstanz darstellt, an die sie gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters | Die Abfrageparameter, die von Benutzern bereitgestellt werden. Sie werden als URL-Abfrageparameter an den Dienst übergeben. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_RecoBackend | Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist die Offlineoption nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_RecoModelName | Der Name des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_RecoModelKey | Diese Eigenschaft ist veraltet. |
SpeechServiceConnection_RecoModelIniFile | Der Pfad zur Ini-Datei des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthLanguage | Die gesprochene Sprache, die synthetisiert werden soll (z. B. en-US) In Version 1.4.0 hinzugefügt. |
SpeechServiceConnection_SynthVoice | Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll, die in Version 1.4.0 hinzugefügt wurde. |
SpeechServiceConnection_SynthOutputFormat | Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats, das in Version 1.4.0 hinzugefügt wurde. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission | Gibt an, ob komprimiertes Audioformat für die Sprachsynthese-Audioübertragung verwendet wird. Diese Eigenschaft wirkt sich nur aus, wenn SpeechServiceConnection_SynthOutputFormat auf ein PCM-Format festgelegt ist. Wenn diese Eigenschaft nicht festgelegt ist und GStreamer verfügbar ist, verwendet DAS SDK komprimiertes Format für die synthetisierte Audioübertragung und decodiert sie. Sie können diese Eigenschaft auf "false" festlegen, um das rohe PCM-Format für die Übertragung auf Draht zu verwenden. In Version 1.16.0 hinzugefügt. |
SpeechServiceConnection_SynthBackend | Die Zeichenfolge zum Angeben des TTS-Back-Ends; Gültige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths, um das Synthese-Back-End offline festzulegen. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthOfflineDataPath | Die Datendateipfade für das Offlinesynthesemodul; nur gültig, wenn das Synthese-Back-End offline ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthOfflineVoice | Der Name der Offline-TTS-Stimme, die unter normalen Umständen für die Sprachsynthese verwendet werden soll, sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen EmbeddedSpeechConfig::SetSpeechSynthesisVoice und EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthModelKey | Diese Eigenschaft ist veraltet. |
SpeechServiceConnection_VoicesListEndpoint | Der Api-Endpunkt der Cognitive Services Speech Service-Stimmenliste (URL). Unter normalen Umständen müssen Sie diese Eigenschaft nicht angeben, das SDK erstellt sie basierend auf der Region/dem Host/Endpunkt von SpeechConfig. In Version 1.16.0 hinzugefügt. |
SpeechServiceConnection_InitialSilenceTimeoutMs | Der anfängliche Stilletimeoutwert (in Millisekunden), der vom Dienst verwendet wird. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_EndSilenceTimeoutMs | Der End-Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_EnableAudioLogging | Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement verknüpft ist (Bring Your Own Storage (BYOS) aktivierte Sprachressource). In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_LanguageIdMode | Der Sprachbezeichnermodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Fortlaufend" sein. Siehe Dokument zur Sprachidentifikation. In 1.25.0 hinzugefügt. |
SpeechServiceConnection_TranslationCategoryId | Die CategoryId für die Übersetzung der Sprachdienstverbindung. |
SpeechServiceConnection_AutoDetectSourceLanguages | Die automatisch erkannten Quellsprachen, die in Version 1.8.0 hinzugefügt wurden. |
SpeechServiceConnection_AutoDetectSourceLanguageResult | Das Ergebnis der automatischen Erkennung der Quellsprache wurde in Version 1.8.0 hinzugefügt. |
SpeechServiceResponse_RequestDetailedResultTrueFalse | Das angeforderte Ausgabeformat für Cognitive Services Speech Service (einfach oder detailliert). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse | Die angeforderte Cognitive Services Speech Service Antwort-Ausgabe-Profanitätsstufe. Derzeit nicht verwendet. |
SpeechServiceResponse_ProfanityOption | Die angeforderte Einstellung für cognitive Services Speech Service-Antwort-Profanität. Zulässige Werte sind "masked", "removed" und "raw". In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_PostProcessingOption | Ein Zeichenfolgenwert, der angibt, welche Nachbearbeitungsoption vom Dienst verwendet werden soll. Zulässige Werte sind "TrueText". In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestWordLevelTimestamps | Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_StablePartialResultThreshold | Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_OutputFormatOption | Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur interne Verwendung. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestSnr | Ein boolescher Wert, der angibt, ob SNR (Signal-zu-Rauschverhältnis) in das Antwortergebnis eingeschlossen werden soll. In Version 1.18.0 hinzugefügt. |
SpeechServiceResponse_TranslationRequestStablePartialResult | Ein boolescher Wert, der zur Stabilisierung von Übersetzungsteilergebnissen anfordert, indem Wörter am Ende weggelassen werden. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestWordBoundary | Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse angefordert werden sollen. In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestPunctuationBoundary | Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen angefordert werden soll. Der Standardwert ist true. In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestSentenceBoundary | Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen angefordert werden soll. Der Standardwert ist "false". In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_SynthesisEventsSyncToAudio | Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse (z. B. Wortgrenze, Viseme usw.) mit der Audiowiedergabe synchronisieren soll. Dies wird nur wirksam, wenn die Audiowiedergabe über das SDK erfolgt. Der Standardwert ist true. Wenn dieser Wert auf "false" festgelegt ist, löst das SDK die Ereignisse aus, die vom Dienst stammen, was möglicherweise nicht mehr mit der Audiowiedergabe synchronisiert ist. In Version 1.31.0 hinzugefügt. |
SpeechServiceResponse_JsonResult | Die Antwortausgabe des Cognitive Services Speech Service (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar. |
SpeechServiceResponse_JsonErrorDetails | Fehlerdetails des Cognitive Services Speech Service (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs | Die Erkennungslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Sprach-/Übersetzungs-/Absichtsergebnisse. Dies misst die Latenz zwischen dem Empfang einer Audioeingabe durch das SDK und dem Moment, in dem das Endergebnis vom Dienst empfangen wird. Das SDK berechnet den Zeitunterschied zwischen dem letzten Audiofragment aus der Audioeingabe, die zum Endergebnis beiträgt, und der Zeitpunkt, zu dem das Endergebnis vom Sprachdienst empfangen wird. In Version 1.3.0 hinzugefügt. |
SpeechServiceResponse_RecognitionBackend | Das Erkennungs-Back-End. Schreibgeschützt, verfügbar für Spracherkennungsergebnisse. Dies gibt an, ob die Clouderkennung (Online) oder eingebettete (Offline)-Erkennung verwendet wurde, um das Ergebnis zu erzielen. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs | Die Erste Bytelatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Moment, in dem das erste Byteaudio verfügbar ist. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisFinishLatencyMs | Die Sprachsynthese aller Byteslatenz in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Moment, in dem das gesamte Audio synthetisiert wird. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisUnderrunTimeMs | Die Unterlaufzeit für die Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für Ergebnisse in SynthesisCompleted-Ereignissen. Dadurch wird die Gesamtunterlaufzeit von PropertyId::AudioConfig_PlaybackBufferLengthInMs gefüllt, um die Synthese abgeschlossen zu machen. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisConnectionLatencyMs | Die Latenz der Sprachsyntheseverbindung in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Zeitpunkt, an dem die HTTP/WebSocket-Verbindung hergestellt wird. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisNetworkLatencyMs | Die Latenz des Sprachsynthesenetzwerks in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Roundtripzeit des Netzwerks. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisServiceLatencyMs | Die Latenz des Sprachsynthesediensts in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Dienstverarbeitungszeit, um das erste Byte von Audio zu synthetisieren. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisBackend | Gibt an, mit welchem Back-End die Synthese abgeschlossen ist. Schreibgeschützt, verfügbar bei Sprachsyntheseergebnissen, mit Ausnahme des Ergebnisses im "SynthesisStarted"-Ereignis, das in Version 1.17.0 hinzugefügt wurde. |
SpeechServiceResponse_DiarizeIntermediateResults | Bestimmt, ob Zwischenergebnisse Sprecheridentifikation enthalten. |
CancellationDetails_Reason | Der Grund für die Kündigung. Derzeit nicht verwendet. |
CancellationDetails_ReasonText | Der Abbruchtext. Derzeit nicht verwendet. |
CancellationDetails_ReasonDetailedText | Der detaillierte Text für den Abbruch. Derzeit nicht verwendet. |
LanguageUnderstandingServiceResponse_JsonResult | Die Antwortausgabe des Sprachverständnisdiensts (im JSON-Format). Verfügbar über IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture | Der Gerätename für die Audioaufnahme. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromMicrophoneInput. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_NumberOfChannelsForCapture | Die Anzahl der Kanäle für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_SampleRateForCapture | Die Samplingrate (in Hz) für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_BitsPerSampleForCapture | Die Anzahl der Bits jedes Beispiels für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_AudioSource | Die Audioquelle. Zulässige Werte sind "Mikrofone", "Datei" und "Stream". In Version 1.3.0 hinzugefügt. |
AudioConfig_DeviceNameForRender | Der Gerätename für das Audiorenderen. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromSpeakerOutput. In Version 1.14.0 hinzugefügt. |
AudioConfig_PlaybackBufferLengthInMs | Die Wiedergabepufferlänge in Millisekunden beträgt standardmäßig 50 Millisekunden. |
AudioConfig_AudioProcessingOptions | Audioverarbeitungsoptionen im JSON-Format. |
Speech_LogFilename | Der Dateiname zum Schreiben von Protokollen. In Version 1.4.0 hinzugefügt. |
Speech_SegmentationSilenceTimeoutMs | Eine Dauer der erkannten Stille, gemessen in Millisekunden, nach der Sprach-zu-Text bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert. Die Konfiguration dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent Ergebnisse liefert, die zu lang oder zu kurz sind. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Sprach-zu-Text-Genauigkeit auswirken; Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte sorgfältig überprüft werden, wie beabsichtigt. Der Wert muss sich im Bereich [100, 5000] Millisekunden befinden. |
Speech_SegmentationMaximumTimeMs | Die maximale Länge eines gesprochenen Ausdrucks bei Verwendung der Segmentierungsstrategie "Zeit". Wenn sich die Länge eines gesprochenen Ausdrucks diesem Wert nähert, beginnt die Speech_SegmentationSilenceTimeoutMs zu reduzieren, bis entweder das Timeout für den Ausdruck stumm geschlagen wird oder der Ausdruck die maximale Länge erreicht. Der Wert muss sich im Bereich [20000, 70000] Millisekunden befinden. |
Speech_SegmentationStrategy | Die Strategie, die verwendet wird, um zu bestimmen, wann ein gesprochener Ausdruck beendet wurde, und ein endgültiges erkanntes Ergebnis sollte generiert werden. Zulässige Werte sind "Default", "Time" und "Semantic". |
Conversation_ApplicationId | Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. In Version 1.5.0 hinzugefügt. |
Conversation_DialogType | Typ des Dialog-Back-End zum Herstellen einer Verbindung mit. In Version 1.7.0 hinzugefügt. |
Conversation_Initial_Silence_Timeout | Stille Timeout für die Überwachung Hinzugefügt in Version 1.5.0. |
Conversation_From_Id | Von der ID, die für Spracherkennungsaktivitäten verwendet werden soll, die in Version 1.5.0 hinzugefügt wurden. |
Conversation_Conversation_Id | ConversationId für die Sitzung. In Version 1.8.0 hinzugefügt. |
Conversation_Custom_Voice_Deployment_Ids | Kommagetrennte Liste der benutzerdefinierten VoIP-Bereitstellungs-IDs. In Version 1.8.0 hinzugefügt. |
Conversation_Speech_Activity_Template | Sprachaktivitätsvorlage, Stempeleigenschaften in der Vorlage für die vom Dienst für Sprache generierte Aktivität. In Version 1.10.0 hinzugefügt. |
Conversation_ParticipantId | Ihr Teilnehmerbezeichner in der aktuellen Unterhaltung. In Version 1.13.0 hinzugefügt. |
Conversation_Request_Bot_Status_Messages | |
Conversation_Connection_Id | |
DataBuffer_TimeStamp | Der Zeitstempel, der dem vom Client geschriebenen Datenpuffer zugeordnet ist, wenn Pull-/Push-Audioeingabedatenströme verwendet werden. Der Zeitstempel ist ein 64-Bit-Wert mit einer Auflösung von 90 kHz. Sie entspricht dem Zeitstempel der Präsentation in einem MPEG-Transportdatenstrom. Siehe https://en.wikipedia.org/wiki/Presentation_timestamp Hinzugefügt in Version 1.5.0. |
DataBuffer_UserId | Die Benutzer-ID, die dem vom Client geschriebenen Datenpuffer bei Verwendung von Pull-/Push-Audioeingabedatenströmen zugeordnet ist. In Version 1.5.0 hinzugefügt. |
PronunciationAssessment_ReferenceText | Der Referenztext des Audiosignals zur Ausspracheauswertung. Dies und die folgenden Parameter für die Aussprachebewertung finden Sie in der Tabelle Parameter für die Aussprachebewertung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create oder PronunciationAssessmentConfig::SetReferenceText. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_GradingSystem | Das Punktsystem für die Aussprachebewertungsbewertung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_Granularity | Die Granularität der Ausspracheauswertung (Phoneme, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_EnableMiscue | Definiert, ob die Fehlberechnung aktiviert wird. Damit werden die ausgesprochenen Wörter mit dem Bezugstext verglichen und basierend auf dem Vergleich mit Auslassung/Einfügung markiert. Die Standardeinstellung ist False. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_PhonemeAlphabet | Das Ausspracheauswertungs-Phoneme-Alphabet. Die gültigen Werte sind "SAPI" (Standard) und "IPA" Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetPhonemeAlphabet. In Version 1.20.0 hinzugefügt. |
PronunciationAssessment_NBestPhonemeCount | Die Ausspracheauswertung nbest phoneme count. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetNBestPhonemeCount. In Version 1.20.0 hinzugefügt. |
PronunciationAssessment_EnableProsodyAssessment | Gibt an, ob die Prosodybewertung aktiviert werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AusspracheAssessmentConfig::EnableProsodyAssessment. In Version 1.33.0 hinzugefügt. |
PronunciationAssessment_Json | Die JSON-Zeichenfolge der Parameter für die Aussprachebewertung unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_Params | Bewertungsparameter für die Aussprache. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_ContentTopic | Das Inhaltsthema der Aussprachebewertung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. In Version 1.33.0 hinzugefügt. |
SpeakerRecognition_Api_Version | Back-End-API-Version der Lautsprechererkennung. Diese Eigenschaft wird hinzugefügt, um ggf. Tests und Verwendung früherer Versionen von Sprechererkennungs-APIs zu ermöglichen. In Version 1.18.0 hinzugefügt. |
SpeechTranslation_ModelName | Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
SpeechTranslation_ModelKey | Diese Eigenschaft ist veraltet. |
KeywordRecognition_ModelName | Der Name eines Modells, das für die Schlüsselworterkennung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
KeywordRecognition_ModelKey | Diese Eigenschaft ist veraltet. |
EmbeddedSpeech_EnablePerformanceMetrics | Aktivieren Sie die Sammlung eingebetteter Sprachleistungsmetriken, die zum Auswerten der Funktion eines Geräts für die Verwendung eingebetteter Spracherkennung verwendet werden können. Die gesammelten Daten werden in Die Ergebnisse bestimmter Szenarien wie der Spracherkennung einbezogen. Die Standardeinstellung ist "false". Beachten Sie, dass Metriken möglicherweise nicht in allen eingebetteten Sprachszenarien verfügbar sind. |
SpeechSynthesisRequest_Pitch | Die Neigung der synthetisierten Sprache. |
SpeechSynthesisRequest_Rate | Die Rate der synthetisierten Sprache. |
SpeechSynthesisRequest_Volume | Die Lautstärke der synthetisierten Sprache. |
SpeechSynthesisRequest_Style | Der Stil der synthetisierten Sprache. |
SpeechSynthesisRequest_Temperature | Die Temperatur der synthetisierten Sprache. Der Temperaturparameter wird nur wirksam, wenn die Stimme eine HD-Stimme ist. |
SpeechSynthesisRequest_CustomLexiconUrl | Die benutzerdefinierte Lexikon-URL für die synthetisierte Sprache. Dies stellt eine URL zu einem benutzerdefinierten Aussprachelexikon bereit, das während der Synthese verwendet werden kann. |
SpeechSynthesisRequest_PreferLocales | Die bevorzugten Gebietsschemas für die synthetisierte Sprache. Kommagetrennte Liste von Gebietsschemanamen in der Reihenfolge ihrer Präferenz. |
SpeechSynthesis_FrameTimeoutInterval | Das Timeoutintervall in Millisekunden zwischen synthetisierten Sprachaudioframes. Je größer diese und 10 Sekunden sind, wird als harter Frametimeout verwendet. Ein Timeout für die Sprachsynthese tritt auf, wenn a) die seit dem letzten Frame übergebene Zeit dieses Timeoutintervall überschreitet, und der Real-Time Faktor (RTF) den Maximalwert überschreitet, oder b) die Zeit, die seit dem letzten Frame überschritten wird, das harte Frametimeout überschreitet. |
SpeechSynthesis_RtfTimeoutThreshold | Der maximal Real-Time Faktor (RTF) für die Sprachsynthese. Der RTF wird als RTF = f(d)/d berechnet, wobei f(d) die Zeit für die Synthetisieren von Sprachaudio der Dauer d ist. |
Definiert Spracheigenschaften-IDs. Geändert in Version 1.4.0.
Enumeration OutputFormat
Werte | Beschreibungen |
---|---|
Einfach | |
Detailliert |
Ausgabeformat.
Aufzählung ProfanityOption
Werte | Beschreibungen |
---|---|
Getarnt | Ersetzt Buchstaben in profanen Wörtern durch Sternzeichen. |
Entfernt | Entfernt profane Wörter. |
Roh | Macht nichts für profane Wörter. |
Entfernt Profanität (Schwören) oder ersetzt Buchstaben von profanen Wörtern durch Sterne. In Version 1.5.0 hinzugefügt.
Enumeration ResultReason
Werte | Beschreibungen |
---|---|
Kein Spiel | Gibt an, dass die Spracherkennung nicht erkannt werden konnte. Weitere Details finden Sie im NoMatchDetails-Objekt. |
Abgebrochen | Gibt an, dass die Erkennung abgebrochen wurde. Weitere Details finden Sie unter Verwendung des CancellationDetails-Objekts. |
ErkennenSpeech | Gibt an, dass das Sprachergebnis Hypothesentext enthält. |
Erkannte Sprache | Gibt an, dass das Sprachergebnis den endgültigen Text enthält, der erkannt wurde. Die Spracherkennung ist jetzt für diesen Ausdruck vollständig. |
Erkennen vonIntent | Gibt an, dass das Absichtsergebnis Hypothesentext und -absicht enthält. |
ErkanntIntent | Gibt an, dass das Absichtsergebnis den endgültigen Text und die Absicht enthält. Die Erkennung von Spracherkennung und Absicht ist jetzt für diesen Ausdruck vollständig. |
ÜbersetzenSpeech | Gibt an, dass das Übersetzungsergebnis Hypothesentext und seine Übersetzungen enthält. |
Übersetzte Sprache | Gibt an, dass das Übersetzungsergebnis den endgültigen Text und die entsprechenden Übersetzungen enthält. Spracherkennung und Übersetzung sind jetzt für diesen Ausdruck vollständig. |
SynthetisierenAudio | Gibt an, dass das synthetisierte Audioergebnis eine Nicht-Null-Menge an Audiodaten enthält. |
SynthesizingAudioCompleted | Gibt an, dass die synthetisierten Audiodaten für diesen Ausdruck jetzt vollständig sind. |
Erkennen vonKeyword | Gibt an, dass das Sprachergebnis (nicht überprüft) Schlüsselworttext enthält. In Version 1.3.0 hinzugefügt. |
Erkanntes Schlüsselwort | Gibt an, dass die Schlüsselworterkennung abgeschlossen wurde, um das angegebene Schlüsselwort zu erkennen. In Version 1.3.0 hinzugefügt. |
SynthetisierenAudioStarted | Gibt an, dass die Sprachsynthese jetzt in Version 1.4.0 hinzugefügt wurde. |
ÜbersetzenParticipantSpeech | Gibt an, dass das Transkriptionsergebnis Hypothesentext und seine Übersetzungen für andere Teilnehmer in der Unterhaltung enthält. In Version 1.8.0 hinzugefügt. |
ÜbersetzteTeilnehmendeSprache | Gibt an, dass das Transkriptionsergebnis endgültige Texte und entsprechende Übersetzungen für andere Teilnehmer der Unterhaltung enthält. Spracherkennung und Übersetzung sind jetzt für diesen Ausdruck vollständig. In Version 1.8.0 hinzugefügt. |
Übersetzte Sofortnachricht | Gibt das Transkriptionsergebnis an, das die Chatnachricht und die entsprechenden Übersetzungen enthält. In Version 1.8.0 hinzugefügt. |
TranslatedParticipantInstantMessage | Gibt das Transkriptionsergebnis an, das die Chatnachricht für andere Teilnehmer in der Unterhaltung und entsprechende Übersetzungen enthält. In Version 1.8.0 hinzugefügt. |
EinschreibungVoiceProfil | Gibt an, dass das VoIP-Profil registriert wird und Kunden mehr Audio senden müssen, um ein VoIP-Profil zu erstellen. In Version 1.12.0 hinzugefügt. |
EnrolledVoiceProfil | Das VoIP-Profil wurde registriert. In Version 1.12.0 hinzugefügt. |
AnerkannteSpeaker | Gibt die erfolgreiche Identifizierung einiger Lautsprecher an. In Version 1.12.0 hinzugefügt. |
Erkannter Lautsprecher | Gibt an, dass ein Lautsprecher erfolgreich überprüft wurde. In Version 1.12.0 hinzugefügt. |
ResetVoiceProfile | Gibt an, dass ein VoIP-Profil erfolgreich zurückgesetzt wurde. In Version 1.12.0 hinzugefügt. |
Gelöschtes Stimmprofil | Gibt an, dass ein VoIP-Profil erfolgreich gelöscht wurde. In Version 1.12.0 hinzugefügt. |
StimmenListeAbgerufen | Gibt an, dass die Stimmenliste erfolgreich abgerufen wurde. In Version 1.16.0 hinzugefügt. |
Gibt die möglichen Gründe an, warum ein Erkennungsergebnis generiert werden kann.
Enumeration CancellationReason
Werte | Beschreibungen |
---|---|
Fehler | Gibt an, dass während der Spracherkennung ein Fehler aufgetreten ist. |
EndeVonStrom | Gibt an, dass das Ende des Audiodatenstroms erreicht wurde. |
StorniertVonBenutzer | Gibt an, dass die Anforderung vom Benutzer abgebrochen wurde. In Version 1.14.0 hinzugefügt. |
Definiert die möglichen Gründe, warum ein Erkennungsergebnis abgebrochen werden kann.
Enumeration CancellationErrorCode
Werte | Beschreibungen |
---|---|
NoError (KeinFehler) | Kein Fehler. Wenn CancellationReason EndOfStream ist, wird CancellationErrorCode auf NoError festgelegt. |
Fehler bei der Authentifizierung | Gibt einen Authentifizierungsfehler an. Ein Authentifizierungsfehler tritt auf, wenn abonnementschlüssel oder Autorisierungstoken ungültig, abgelaufen oder nicht mit der verwendeten Region übereinstimmt. |
Fehlerhafte Anfrage | Gibt an, dass mindestens ein Erkennungsparameter ungültig ist oder das Audioformat nicht unterstützt wird. |
Zu viele Anfragen | Gibt an, dass die Anzahl der parallelen Anforderungen die Anzahl der zulässigen gleichzeitigen Transkriptionen für das Abonnement überschritten hat. |
Verboten | Gibt an, dass das kostenlose Abonnement, das von der Anforderung verwendet wird, nicht mehr Kontingent hat. |
Verbindungsfehler | Gibt einen Verbindungsfehler an. |
ServiceTimeout | Gibt einen Timeoutfehler an, wenn auf die Antwort des Diensts gewartet wird. |
Dienstfehler | Gibt an, dass ein Fehler vom Dienst zurückgegeben wird. |
Dienst nicht verfügbar | Gibt an, dass der Dienst zurzeit nicht verfügbar ist. |
Laufzeitfehler | Gibt einen unerwarteten Laufzeitfehler an. |
ServiceRedirectTemporär | Gibt an, dass der Sprachdienst vorübergehend eine erneute Verbindung mit einem anderen Endpunkt anfordert. |
ServiceRedirectPermanent | Gibt an, dass der Spracherkennungsdienst dauerhaft eine erneute Verbindung mit einem anderen Endpunkt anfordert. |
EmbeddedModelError | Gibt an, dass das eingebettete Spracherkennungsmodell (SR oder TTS) nicht verfügbar oder beschädigt ist. |
Definiert den Fehlercode, wenn "CancellationReason" "Error" lautet. In Version 1.1.0 hinzugefügt.
Enumeration NoMatchReason
Werte | Beschreibungen |
---|---|
Nicht erkannt | Gibt an, dass die Spracherkennung erkannt, aber nicht erkannt wurde. |
InitialSilenceTimeout | Gibt an, dass der Start des Audiodatenstroms nur Stille enthielt, und der Dienst hat keine Zeitüberschreitung beim Warten auf die Spracherkennung. |
InitialBabbleTimeout | Gibt an, dass der Start des Audiodatenstroms nur Rauschen enthielt, und der Dienst hat keine Zeitüberschreitung beim Warten auf die Spracherkennung. |
KeywordNotRecognized | Gibt an, dass das gefleckte Schlüsselwort vom Schlüsselwortüberprüfungsdienst abgelehnt wurde. In Version 1.5.0 hinzugefügt. |
EndSilenceTimeout | Gibt an, dass der Audiodatenstrom nach dem letzten erkannten Ausdruck nur Stille enthielt. |
Definiert die möglichen Gründe, warum ein Erkennungsergebnis möglicherweise nicht erkannt wird.
Enumeration ActivityJSONType
Werte | Beschreibungen |
---|---|
Null | |
Objekt | |
Anordnung | |
Schnur | |
Doppelt | |
UInt | |
Integer | |
Boolesch |
Definiert die möglichen Typen für einen Aktivitäts-JSON-Wert. In Version 1.5.0 hinzugefügt.
Enumeration SpeechSynthesisOutputFormat
Werte | Beschreibungen |
---|---|
Raw8Khz8BitMonoMULaw | raw-8khz-8bit-mono-mulaw |
Riff16Khz16KbpsMonoSirene | riff-16khz-16 kbps-mono-siren Nicht vom Dienst unterstützt. Verwenden Sie diesen Wert nicht. |
Audio16Khz16KbpsMonoSirene | audio-16khz-16kbps-mono-siren Nicht vom Dienst unterstützt. Verwenden Sie diesen Wert nicht. |
Audio16Khz32KBitRateMonoMP3 | Audio-16kHz-32kBitrate-Mono-MP3 |
Audio16Khz128KBitRateMonoMP3 | audio-16khz-128kbitrate-mono-mp3 |
Audio16Khz64KBitRateMonoMP3 | Audio-16kHz-64kBitrate-Mono-MP3 |
Audio24Khz48KBitRateMonoMP3 | Audio-24kHz-48kBitrate-Mono-MP3 |
Audio24Khz96KBitRateMonoMP3 | Audio-24kHz-96kBitrate-Mono-MP3 |
Audio24Khz160KBitRateMonoMP3 | audio-24khz-160kbitrate-mono-mp3 |
Roh16Khz16BitMonoTrueSilk | raw-16kHz-16bit-mono-truesilk |
Riff16Khz16BitMonoPcm | riff-16khz-16bit-mono-pcm |
Riff8Khz16BitMonoPcm | riff-8khz-16bit-mono-pcm |
Riff24Khz16BitMonoPcm | riff-24khz-16bit-mono-pcm |
Riff8Khz8BitMonoMULaw | riff-8khz-8bit-mono-mulaw |
Raw16Khz16BitMonoPcm | raw-16kHz-16bit-mono-pcm |
Raw24Khz16BitMonoPcm | raw-24kHz-16bit-mono-pcm |
Raw8Khz16BitMonoPcm | raw-8kHz-16bit-mono-pcm |
Ogg16Khz16BitMonoOpus | ogg-16kHz-16bit-mono-opus |
Ogg24Khz16BitMonoOpus | ogg-24kHz-16bit-mono-opus |
Raw48Khz16BitMonoPcm | raw-48kHz-16bit-mono-pcm |
Riff48Khz16BitMonoPcm | riff-48khz-16bit-mono-pcm |
Audio48Khz96KBitRateMonoMP3 | Audio-48kHz-96kBitrate-Mono-MP3 |
Audio48Khz192KBitRateMonoMP3 | audio-48khz-192kbitrate-mono-mp3 |
Ogg48Khz16BitMonoOpus | ogg-48khz-16bit-mono-opus Hinzugefügt in Version 1.16.0 |
Webm16Khz16BitMonoOpus | webm-16khz-16bit-mono-opus Hinzugefügt in Version 1.16.0 |
Webm24Khz16BitMonoOpus | webm-24khz-16bit-mono-opus Hinzugefügt in Version 1.16.0 |
Roh24Khz16BitMonoTrueSilk | raw-24khz-16bit-mono-truesilk Hinzugefügt in Version 1.17.0 |
Raw8Khz8BitMonoALaw | raw-8khz-8bit-mono-alaw Hinzugefügt in Version 1.17.0 |
Riff8Khz8BitMonoALaw | riff-8khz-8bit-mono-alaw Hinzugefügt in Version 1.17.0 |
Webm24Khz16Bit24KbpsMonoOpus | webm-24khz-16bit-24 kbps-mono-opus Audio komprimiert von OPUS Codec in einem WebM-Container mit Bitrate von 24 KBps, optimiert für IoT-Szenario. (Hinzugefügt in 1.19.0) |
Audio16Khz16Bit32KbpsMonoOpus | audio-16khz-16bit-32kbps-mono-opus Audio komprimiert von OPUS Codec ohne Container, mit Bitrate von 32 KBit/s. (Hinzugefügt in 1.20.0) |
Audio24Khz16Bit48KbpsMonoOpus | audio-24khz-16bit-48kbps-mono-opus Audio komprimiert von OPUS Codec ohne Container, mit Bitrate von 48 KBps. (Hinzugefügt in 1.20.0) |
Audio24Khz16Bit24KbpsMonoOpus | audio-24khz-16bit-24 kbps-mono-opus Audio komprimiert von OPUS Codec ohne Container, mit Bitrate von 24 KBps. (Hinzugefügt in 1.20.0) |
Roh22050Hz16BitMonoPcm | raw-22050hz-16bit-mono-pcm Raw PCM Audio bei 22050Hz Samplingrate und 16-Bit-Tiefe. (Hinzugefügt in 1.22.0) |
Riff22050Hz16BitMonoPcm | riff-22050hz-16bit-mono-pcm PCM audio bei 22050Hz Samplingrate und 16-Bit-Tiefe, mit RIFF-Header. (Hinzugefügt in 1.22.0) |
Roh44100Hz16BitMonoPcm | raw-44100hz-16bit-mono-pcm Raw PCM audio bei 44100Hz Samplingrate und 16-Bit-Tiefe. (Hinzugefügt in 1.22.0) |
Riff44100Hz16BitMonoPcm | riff-44100hz-16bit-mono-pcm PCM audio bei 44100Hz Samplingrate und 16-Bit-Tiefe, mit RIFF-Header. (Hinzugefügt in 1.22.0) |
AmrWb16000Hz | amr-wb-16000hz AMR-WB Audio mit 16kHz Samplingrate. (Hinzugefügt in 1.24.0) |
G72216Khz64Kbps | g722-16khz-64 kbps G.722 Audio bei 16kHz Samplingrate und 64 KB Bitrate. (Hinzugefügt in 1.38.0) |
Definiert die möglichen Audioformate für die Sprachsynthese. Aktualisiert in Version 1.19.0.
StreamStatus aufzählen
Werte | Beschreibungen |
---|---|
Unbekannt | Der Status des Audiodatenstroms ist unbekannt. |
Keine Daten | Der Audiodatenstrom enthält keine Daten. |
Teildaten | Der Audiodatenstrom enthält Teildaten einer Sprachanfrage. |
AlleDaten | Der Audiodatenstrom enthält alle Daten einer Sprachanfrage. |
Abgebrochen | Der Audiodatenstrom wurde abgebrochen. |
Definiert den möglichen Status des Audiodatenstroms. In Version 1.4.0 hinzugefügt.
Enumeration ServicePropertyChannel
Werte | Beschreibungen |
---|---|
UriQueryParameter | Verwendet den URI-Abfrageparameter, um Eigenschafteneinstellungen an den Dienst zu übergeben. |
HttpHeader | Verwendet HttpHeader, um einen Schlüssel/Wert in einem HTTP-Header festzulegen. |
Definiert Kanäle, die zum Übergeben von Eigenschaftseinstellungen an den Dienst verwendet werden. In Version 1.5.0 hinzugefügt.
Enumeration VoiceProfileType
Werte | Beschreibungen |
---|---|
TextIndependentIdentification | Textunabhängige Sprecheridentifikation. |
TextDependentVerification | Überprüfung des textabhängigen Sprechers. |
TextUnabhängigeVerifizierung | Textunabhängige Überprüfung. |
Definiert VoIP-Profiltypen.
Enumeration RecognitionFactorScope
Werte | Beschreibungen |
---|---|
PartialPhrase | Ein Erkennungsfaktor gilt für Grammatiken, auf die als einzelne Teilausdrücke verwiesen werden kann. |
Definiert den Bereich, auf den ein Erkennungsfaktor angewendet wird.
Enumeration PronunciationAssessmentGradingSystem
Werte | Beschreibungen |
---|---|
FünfPoint | Kalibrierung von fünf Punkten. |
Hundertmark | Hundert Zeichen. |
Definiert das Punktsystem für die Aussprachebewertungskalibrierung; Der Standardwert ist FivePoint. In Version 1.14.0 hinzugefügt.
Enumeration PronunciationAssessmentGranularity
Werte | Beschreibungen |
---|---|
Phonem | Zeigt die Bewertung auf der Volltext-, Wort- und Phoneme-Ebene an. |
Wort | Zeigt die Bewertung auf der Volltext- und Wortebene an. |
Volltext | Zeigt die Bewertung nur auf der Volltextebene an. |
Definiert die Granularität der Ausspracheauswertung; Der Standardwert ist "Phoneme". In Version 1.14.0 hinzugefügt.
Enumeration SynthesisVoiceType
Werte | Beschreibungen |
---|---|
OnlineNeuronal | Neurale Onlinestimme. |
OnlineStandard (Englisch) | Online-Standardstimme. |
OfflineNeuronal | Neurale Offlinestimme. |
OfflineStandard | Offlinestandardstimme. |
Definiert den Typ der Synthesestimmchen, die in Version 1.16.0 hinzugefügt wurden.
Enumeration SynthesisVoiceGender
Werte | Beschreibungen |
---|---|
Unbekannt | Geschlecht unbekannt. |
Weiblich | Frauenstimme. |
Männlich | Männerstimme. |
Neutral | Neutrale Stimme. |
Definiert das Geschlecht der Synthesestimmungen, die in Version 1.17.0 hinzugefügt wurden.
Enumeration SynthesisVoiceStatus
Werte | Beschreibungen |
---|---|
Unbekannt | Sprachstatus unbekannt. |
AllgemeinVerfügbarkeit | Spracherkennung ist allgemein verfügbar. |
Vorschau | Voice befindet sich in der Vorschau. |
Veraltet | VoIP ist veraltet, wird nicht verwendet. |
Definiert den Status von Synthesestimmchen.
Enumeration SpeechSynthesisBoundaryType
Werte | Beschreibungen |
---|---|
Wort | Word-Grenze. |
Interpunktion | Interpunktionsgrenze. |
Satz | Satzgrenze. |
Definiert den Grenztyp des Sprachsynthesebegrenzungsereignisses, das in Version 1.21.0 hinzugefügt wurde.
Enumeration SegmentationStrategy
Werte | Beschreibungen |
---|---|
Vorgabe | Verwenden Sie die Standardstrategie und -einstellungen, wie sie vom Spracherkennungsdienst bestimmt werden. Wird in den meisten Situationen verwendet. |
Zeit | Verwendet eine zeitbasierte Strategie, bei der die Stille zwischen der Sprache verwendet wird, um zu bestimmen, wann ein Endergebnis generiert werden soll. |
Semantisch | Verwendet ein KI-Modell, um das Ende eines gesprochenen Ausdrucks basierend auf dem Inhalt des Ausdrucks abzuschrecken. |
Die Strategie, die verwendet wird, um zu bestimmen, wann ein gesprochener Ausdruck beendet wurde, und ein endgültiges erkanntes Ergebnis sollte generiert werden. Zulässige Werte sind "Default", "Time" und "Semantic".