PropertyId Enumeration

Definition

Listet Spracheigenschaften-IDs auf.

public enum PropertyId
type PropertyId = 
Public Enum PropertyId
Vererbung
PropertyId

Felder

AudioConfig_DeviceNameForRender 8005

Der Gerätename für das Audiorendern. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen FromSpeakerOutput(String). In Version 1.17.0 hinzugefügt

AudioConfig_PlaybackBufferLengthInMs 8006

Wiedergabepufferlänge in Millisekunden, Standardwert 50 Millisekunden. In Version 1.17.0 hinzugefügt

CancellationDetails_Reason 6000

Nicht verwendet. Der Grund für den Abbruch.

CancellationDetails_ReasonDetailedText 6002

Nicht verwendet. Der abbruchdetailse Text.

CancellationDetails_ReasonText 6001

Nicht verwendet. Der Abbruchtext.

Conversation_ApplicationId 10000

Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. In Version 1.5.0 hinzugefügt

Conversation_Connection_Id 10009

Zusätzliche Identifizierende Informationen, z. B. ein Direct Line Token, die für die Authentifizierung beim Back-End-Dienst verwendet werden. Hinzugefügt in 1.16.0

Conversation_Conversation_Id 10004

ConversationId für die Sitzung. In Version 1.8.0 hinzugefügt

Conversation_Custom_Voice_Deployment_Ids 10005

Durch Trennzeichen getrennte Liste der benutzerdefinierten Sprachbereitstellungs-IDs. In Version 1.8.0 hinzugefügt

Conversation_DialogType 10001

Typ des Dialog-Back-Ends, mit dem eine Verbindung hergestellt werden soll. In Version 1.7.0 hinzugefügt

Conversation_From_Id 10003

Der from-Bezeichner, der zu Spracherkennungsaktivitäten hinzugefügt werden soll. In Version 1.5.0 hinzugefügt

Conversation_Initial_Silence_Timeout 10002

Stille Timeout für das Zuhören. In Version 1.5.0 hinzugefügt

Conversation_ParticipantId 10007

Ruft Ihren Bezeichner in der Unterhaltung ab. Hinzugefügt in 1.13.0

Conversation_Request_Bot_Status_Messages 10008

Ein boolescher Wert, der angibt, ob der Client Turn status-Nachrichten empfangen und entsprechende TurnStatusReceived-Ereignisse generieren soll. Der Standardwert ist TRUE. Hinzugefügt in 1.15.0

Conversation_Speech_Activity_Template 10006

Vorlage für Sprachaktivität, Stempeleigenschaften aus der Vorlage für die aktivität, die vom Dienst für Sprache generiert wurde. Siehe SpeechActivityTemplate Hinzugefügt in 1.10.0

ConversationTranscribingService_DataBufferTimeStamp 11001

Der Zeitstempel, der dem Datenpuffer zugeordnet ist, der vom Client bei Verwendung von Pull/Push-Audiomodusstreams geschrieben wird. Der Zeitstempel ist ein 64-Bit-Wert mit einer Auflösung von 90 kHz. Dasselbe wie der Präsentationszeitstempel in einem MPEG-Transportstream. Siehe https://en.wikipedia.org/wiki/Presentation_timestamp. In 1.5.0 hinzugefügt

ConversationTranscribingService_DataBufferUserId 11002

Der Benutzerbezeichner, der dem vom Client geschriebenen Datenpuffer bei Verwendung von Pull/Push-Audiomodusstreams zugeordnet ist. In 1.5.0 hinzugefügt

LanguageUnderstandingServiceResponse_JsonResult 7000

Die Language Understanding-Dienstantwortausgabe (im JSON-Format). Verfügbar über Properties.

PronunciationAssessment_EnableMiscue 12005

Gibt den Fehlerhaften Berechnungszustand an. Wenn diese Option aktiviert ist, werden die ausgesprochenen Wörter mit dem Referenztext verglichen und basierend auf dem Vergleich mit Auslassung/Einfügung gekennzeichnet. Die Standardeinstellung ist false. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt

PronunciationAssessment_GradingSystem 12002

Das Punktsystem für die Kalibrierung der Aussprachebewertung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt

PronunciationAssessment_Granularity 12003

Die Granularität der Ausspracheauswertung (Phonem, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt

PronunciationAssessment_Json 12009

Die JSON-Zeichenfolge der Aussprachebewertungsparameter. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt

PronunciationAssessment_NBestPhonemeCount 12007

Die Ausspracheauswertung nbest phonem count. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen NBestPhonemeCount. In Version 1.20.0 hinzugefügt

PronunciationAssessment_Params 12010

Aussprachebewertungsparameter. Diese Eigenschaft ist schreibgeschützt. In 1.14.0 hinzugefügt

PronunciationAssessment_PhonemeAlphabet 12006

Das Phonemal der Ausspracheauswertung. Die gültigen Werte sind "SAPI" (Standard) und "IPA" Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PhonemeAlphabet. In Version 1.20.0 hinzugefügt

PronunciationAssessment_ReferenceText 12001

Der Referenztext des Audios für die Ausspracheauswertung. Ausführliche Informationen hierzu und die folgenden Aussprachebewertungsparameter finden Sie unter Parameter zur Bewertung der Aussprache . Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt

SpeakerRecognition_Api_Version 13001

Sprechererkennungs-API-Version. Hinzugefügt in 1.18.0

Speech_LogFilename 9001

Der Dateiname zum Schreiben von Protokollen. In 1.4.0 hinzugefügt

Speech_SegmentationSilenceTimeoutMs 9002

Eine In Millisekunden gemessene Dauer der erkannten Stille, nach der die Spracherkennung bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert wird. Das Konfigurieren dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent zu zu langen oder zu kurzen Ergebnissen führt. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Spracherkennungsgenauigkeit auswirken. Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte wie vorgesehen gründlich überprüft werden.

Weitere Informationen zur Konfiguration von Timeouts, die eine Erläuterung des Standardverhaltens enthalten, finden Sie unter https://aka.ms/csspeech/timeouts.

Speech_SessionId 3002

Die Sitzungs-ID. Diese ID ist ein universell eindeutiger Bezeichner (auch als UUID bezeichnet), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennung instance darstellt, an die er gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionId.

SpeechServiceAuthorization_Token 1003

Das Autorisierungstoken des Speech-Diensts (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromAuthorizationToken(String, String)stattdessen , AuthorizationToken, AuthorizationToken, AuthorizationToken.

SpeechServiceAuthorization_Type 1004

Nicht verwendet. Der Autorisierungstyp des Speech-Diensts.

SpeechServiceConnection_AutoDetectSourceLanguageResult 3301

Das Ergebnis der automatischen Erkennung der Quellsprache. Hinzugefügt in 1.9.0

SpeechServiceConnection_AutoDetectSourceLanguages 3300

Die automatische Erkennung von Quellsprachen. Hinzugefügt in 1.9.0

SpeechServiceConnection_EnableAudioLogging 3202

Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im Microsoft-eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement (Bring Your Own Storage, BYOS) verknüpft ist. In 1.5.0 hinzugefügt.

SpeechServiceConnection_Endpoint 1001

Der Speech-Dienstendpunkt, eine URL. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromEndpoint(Uri, String)stattdessen , oder FromEndpoint(Uri). HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird.

SpeechServiceConnection_EndpointId 1005

Die Id des Benutzerdefinierten Spracherkennungs- oder Custom Voice Service-Endpunkts. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromEndpoint(Uri, String)stattdessen , oder FromEndpoint(Uri). HINWEIS: Die Endpunkt-ID ist im Custom Speech-Portal verfügbar, das unter Endpunktdetails aufgeführt ist.

SpeechServiceConnection_EndSilenceTimeoutMs 3201

Der vom Dienst verwendete End Silence-Timeoutwert (in Millisekunden). In 1.5.0 hinzugefügt

SpeechServiceConnection_Host 1006

Der Speech-Diensthost (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromHost(Uri, String)stattdessen , oder FromHost(Uri).

SpeechServiceConnection_InitialSilenceTimeoutMs 3200

Der anfängliche Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. In 1.5.0 hinzugefügt

SpeechServiceConnection_IntentRegion 2003

Die Language Understanding-Dienstregion. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel.

SpeechServiceConnection_Key 1000

Der Abonnementschlüssel, der mit Speech-Dienstendpunkten verwendet wird. Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen FromSubscription(String, String).

SpeechServiceConnection_LanguageIdMode 3205

Der Spracherkennungsmodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Continuous" sein. Weitere Informationen finden Sie unter Spracherkennungsdokument . In 1.25.0 hinzugefügt

SpeechServiceConnection_ProxyHostName 1100

Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Speech-Dienst verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SetProxy(String, Int32, String, String). In 1.1.0 hinzugefügt

SpeechServiceConnection_ProxyPassword 1103

Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Speech-Dienst verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SetProxy(String, Int32, String, String). In 1.1.0 hinzugefügt

SpeechServiceConnection_ProxyPort 1101

Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Speech-Dienst verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SetProxy(String, Int32, String, String). In 1.1.0 hinzugefügt

SpeechServiceConnection_ProxyUserName 1102

Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Speech-Dienst verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SetProxy(String, Int32, String, String). In 1.1.0 hinzugefügt

SpeechServiceConnection_RecoBackend 3004

Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist die Offlineoption nur gültig, wenn EmbeddedSpeechConfig verwendet wird. Hinzugefügt in Version 1.19.0

SpeechServiceConnection_RecoLanguage 3001

Die zu erkennende Gesprochene Sprache (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechRecognitionLanguage.

SpeechServiceConnection_RecoMode 3000

Der Erkennungsmodus des Speech-Diensts. Kann INTERAKTIV, UNTERHALTUNG, DIKTATION sein. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern.

SpeechServiceConnection_RecoModelKey 3006

Der Entschlüsselungsschlüssel des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. Hinzugefügt in Version 1.19.0

SpeechServiceConnection_RecoModelName 3005

Der Name des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. Hinzugefügt in Version 1.19.0

SpeechServiceConnection_Region 1002

Die dem Abonnementschlüssel zugeordnete Speech-Dienstregion. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromSubscription(String, String)stattdessen , FromEndpoint(Uri, String), FromEndpoint(Uri), FromHost(Uri, String), FromHost(Uri), . FromAuthorizationToken(String, String)

SpeechServiceConnection_SynthBackend 3110

Die Zeichenfolge zum Angeben des TTS-Back-Ends; gültige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen FromPath(String) oder FromPaths(String[]). , um das Synthese-Back-End auf offline festzulegen. Hinzugefügt in Version 1.19.0

SpeechServiceConnection_SynthEnableCompressedAudioTransmission 3103

Gibt an, ob das komprimierte Audioformat für die Sprachsynthese-Audioübertragung verwendet werden soll. Diese Eigenschaft ist nur wichtig, wenn SpeechServiceConnection_SynthOutputFormat auf ein pcm-Format festgelegt ist. Wenn diese Eigenschaft nicht auf true festgelegt ist und GStreamer verfügbar ist, verwendet das SDK ein komprimiertes Format für die synthetisierte Audioübertragung und decodiert es. Sie können diese Eigenschaft auf false festlegen, um das rohe pcm-Format für die Übertragung über Kabel zu verwenden. In 1.16.0 hinzugefügt

SpeechServiceConnection_SynthLanguage 3100

Die gesprochene Sprache, die synthetisiert werden soll (z. B. en-US). In 1.4.0 hinzugefügt

SpeechServiceConnection_SynthModelKey 3114

Der Entschlüsselungsschlüssel des Modells, das für die Sprachsynthese verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen SetSpeechSynthesisVoice(String, String). Hinzugefügt in Version 1.19.0

SpeechServiceConnection_SynthOfflineDataPath 3112

Die Datendateipfade für die Offlinesynthese-Engine; nur gültig, wenn das Synthese-Back-End offline ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen FromPath(String) oder FromPaths(String[]). Hinzugefügt in Version 1.19.0

SpeechServiceConnection_SynthOfflineVoice 3113

Der Name der Offline-TTS-Stimme, die für die Sprachsynthese verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen SetSpeechSynthesisVoice(String, String). Hinzugefügt in Version 1.19.0

SpeechServiceConnection_SynthOutputFormat 3102

Die Zeichenfolge zum Angeben des Audioformats für sprachsyntheseausgabe (z. B. riff-16khz-16bit-mono-pcm) Hinzugefügt in 1.4.0

SpeechServiceConnection_SynthVoice 3101

Der Name der Stimme, die für Text-to-Speech verwendet werden soll. In 1.4.0 hinzugefügt

SpeechServiceConnection_TranslationFeatures 2002

Übersetzungsfeatures. Für die interne Verwendung.

SpeechServiceConnection_TranslationToLanguages 2000

Die Liste der durch Kommas getrennten Sprachen (im BCP-47-Format), die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie AddTargetLanguage(String) stattdessen und die schreibgeschützte TargetLanguages Auflistung.

SpeechServiceConnection_TranslationVoice 2001

Der Name der Stimme, die für Text-to-Speech verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen VoiceName. Hier finden Sie gültige Sprachnamen.

SpeechServiceConnection_Url 1104

Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet diesen Wert intern. In 1.5.0 hinzugefügt

SpeechServiceConnection_VoicesListEndpoint 3130

Der Cognitive Services Speech Service-Stimmenlisten-API-Endpunkt (URL). Unter normalen Umständen müssen Sie diese Eigenschaft nicht angeben. Das SDK erstellt sie basierend auf der Region/dem Host/Endpunkt von SpeechConfig. In 1.16.0 hinzugefügt

SpeechServiceResponse_JsonErrorDetails 5001

Fehlerdetails des Speech-Diensts (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen ErrorDetails.

SpeechServiceResponse_JsonResult 5000

Die Antwortausgabe des Speech-Diensts (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar.

SpeechServiceResponse_OutputFormatOption 4006

Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur zur internen Verwendung. In 1.5.0 hinzugefügt

SpeechServiceResponse_PostProcessingOption 4003

Ein Zeichenfolgenwert, der angibt, welche Nachverarbeitungsoption vom Dienst verwendet werden soll. Zulässiger Wert: TrueText. In 1.5.0 hinzugefügt

SpeechServiceResponse_ProfanityOption 4002

Die angeforderte Einstellung für die Ausgabe der Sprachausgabe des Speech-Diensts. Zulässige Werte werden maskiert, entfernt und unformatiert. In 1.5.0 hinzugefügt

SpeechServiceResponse_RecognitionBackend 5003

Das Erkennungs-Back-End. Schreibgeschützt, verfügbar für Spracherkennungsergebnisse. Dies gibt an, ob die Clouderkennung (online) oder eingebettete (offline) Erkennung verwendet wurde, um das Ergebnis zu erzeugen.

SpeechServiceResponse_RecognitionLatencyMs 5002

Die Erkennungslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Sprach-,Übersetzungs-/Absichtsergebnisse. Dies misst die Latenz zwischen dem Empfang einer Audioeingabe durch das SDK und dem Zeitpunkt, zu dem das endgültige Ergebnis vom Dienst empfangen wird. Das SDK berechnet den Zeitunterschied zwischen dem letzten Audiofragment aus der Audioeingabe, die zum Endergebnis beiträgt, und der Zeit, zu der das Endergebnis vom Sprachdienst empfangen wird. In 1.3.0 hinzugefügt

SpeechServiceResponse_RequestDetailedResultTrueFalse 4000

Das angeforderte Ausgabeformat des Speech-Diensts (OutputFormat.Simple oder OutputFormat.Detailed). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen OutputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse 4001

Nicht verwendet. Die angeforderte Ausgabestufe für die Antwort des Speech-Diensts

SpeechServiceResponse_RequestPunctuationBoundary 4201

Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "True". In Version 1.21.0 hinzugefügt.

SpeechServiceResponse_RequestSentenceBoundary 4202

Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "false". In Version 1.21.0 hinzugefügt.

SpeechServiceResponse_RequestSnr 4007

Ein boolescher Wert, der angibt, ob SNR (Signal-Rausch-Verhältnis) in das Antwortergebnis einbezogen werden soll. Hinzugefügt in Version 1.18.0

SpeechServiceResponse_RequestWordBoundary 4200

Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse anzufordern sind. In Version 1.21.0 hinzugefügt.

SpeechServiceResponse_RequestWordLevelTimestamps 4004

Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. In 1.5.0 hinzugefügt

SpeechServiceResponse_StablePartialResultThreshold 4005

Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. In 1.5.0 hinzugefügt

SpeechServiceResponse_SynthesisBackend 5020

Gibt an, von welchem Back-End die Synthese abgeschlossen wird. Schreibgeschützt, verfügbar für Sprachsyntheseergebnisse, mit Ausnahme des Ergebnisses im SynthesisStarted-Ereignis. In Version 1.19.0 hinzugefügt.

SpeechServiceResponse_SynthesisConnectionLatencyMs 5013

Die Latenz der Sprachsyntheseverbindung in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Zeitpunkt, zu dem die HTTP/WebSocket-Verbindung hergestellt wird. In Version 1.26.0 hinzugefügt.

SpeechServiceResponse_SynthesisEventsSyncToAudio 4210

Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse (z. B. Wortgrenze, Viseme usw.) mit der Audiowiedergabe synchronisieren soll. Dies wird nur wirksam, wenn die Audiowiedergabe über das SDK erfolgt. Der Standardwert ist "True". Wenn auf false festgelegt ist, löst das SDK die Ereignisse aus, wenn sie vom Dienst stammen, was möglicherweise nicht mit der Audiowiedergabe synchronisiert ist. In Version 1.31.0 hinzugefügt.

SpeechServiceResponse_SynthesisFinishLatencyMs 5011

Die Sprachsynthese aller Byteslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Moment, an dem das gesamte Audio synthetisiert wird. In Version 1.17.0 hinzugefügt.

SpeechServiceResponse_SynthesisFirstByteLatencyMs 5010

Die Erstbytelatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Moment, zu dem das erste Byte-Audio verfügbar ist. In Version 1.17.0 hinzugefügt.

SpeechServiceResponse_SynthesisNetworkLatencyMs 5014

Die Netzwerklatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Netzwerk-Rundreisezeit. In Version 1.26.0 hinzugefügt.

SpeechServiceResponse_SynthesisServiceLatencyMs 5015

Die Latenz des Sprachsynthesediensts in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Dienstverarbeitungszeit, um das erste Byte von Audio zu synthetisieren. In Version 1.26.0 hinzugefügt.

SpeechServiceResponse_SynthesisUnderrunTimeMs 5012

Die Unterlaufzeit für die Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für Ergebnisse in SynthesisCompleted-Ereignissen. Dies misst die gesamte Unterlaufzeit von AudioConfig_PlaybackBufferLengthInMs gefüllt bis synthese abgeschlossen. In Version 1.17.0 hinzugefügt.

SpeechServiceResponse_TranslationRequestStablePartialResult 4100

Ein boolescher Wert, der die Stabilisierung von Übersetzungsteilergebnissen anfordern soll, indem wörter am Ende weggelassen werden. In 1.5.0 hinzugefügt

SpeechTranslation_ModelKey 13101

Der Entschlüsselungsschlüssel eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird.

SpeechTranslation_ModelName 13100

Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird.

Gilt für: