PropertyId Enumeration
Definition
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Listet Spracheigenschaften-IDs auf.
public enum PropertyId
type PropertyId =
Public Enum PropertyId
- Vererbung
-
PropertyId
Felder
AudioConfig_DeviceNameForRender | 8005 | Der Gerätename für das Audiorendern. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen FromSpeakerOutput(String). In Version 1.17.0 hinzugefügt |
AudioConfig_PlaybackBufferLengthInMs | 8006 | Wiedergabepufferlänge in Millisekunden, Standardwert 50 Millisekunden. In Version 1.17.0 hinzugefügt |
CancellationDetails_Reason | 6000 | Nicht verwendet. Der Grund für den Abbruch. |
CancellationDetails_ReasonDetailedText | 6002 | Nicht verwendet. Der abbruchdetailse Text. |
CancellationDetails_ReasonText | 6001 | Nicht verwendet. Der Abbruchtext. |
Conversation_ApplicationId | 10000 | Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. In Version 1.5.0 hinzugefügt |
Conversation_Connection_Id | 10009 | Zusätzliche Identifizierende Informationen, z. B. ein Direct Line Token, die für die Authentifizierung beim Back-End-Dienst verwendet werden. Hinzugefügt in 1.16.0 |
Conversation_Conversation_Id | 10004 | ConversationId für die Sitzung. In Version 1.8.0 hinzugefügt |
Conversation_Custom_Voice_Deployment_Ids | 10005 | Durch Trennzeichen getrennte Liste der benutzerdefinierten Sprachbereitstellungs-IDs. In Version 1.8.0 hinzugefügt |
Conversation_DialogType | 10001 | Typ des Dialog-Back-Ends, mit dem eine Verbindung hergestellt werden soll. In Version 1.7.0 hinzugefügt |
Conversation_From_Id | 10003 | Der from-Bezeichner, der zu Spracherkennungsaktivitäten hinzugefügt werden soll. In Version 1.5.0 hinzugefügt |
Conversation_Initial_Silence_Timeout | 10002 | Stille Timeout für das Zuhören. In Version 1.5.0 hinzugefügt |
Conversation_ParticipantId | 10007 | Ruft Ihren Bezeichner in der Unterhaltung ab. Hinzugefügt in 1.13.0 |
Conversation_Request_Bot_Status_Messages | 10008 | Ein boolescher Wert, der angibt, ob der Client Turn status-Nachrichten empfangen und entsprechende TurnStatusReceived-Ereignisse generieren soll. Der Standardwert ist TRUE. Hinzugefügt in 1.15.0 |
Conversation_Speech_Activity_Template | 10006 | Vorlage für Sprachaktivität, Stempeleigenschaften aus der Vorlage für die aktivität, die vom Dienst für Sprache generiert wurde. Siehe SpeechActivityTemplate Hinzugefügt in 1.10.0 |
ConversationTranscribingService_DataBufferTimeStamp | 11001 | Der Zeitstempel, der dem Datenpuffer zugeordnet ist, der vom Client bei Verwendung von Pull/Push-Audiomodusstreams geschrieben wird. Der Zeitstempel ist ein 64-Bit-Wert mit einer Auflösung von 90 kHz. Dasselbe wie der Präsentationszeitstempel in einem MPEG-Transportstream. Siehe https://en.wikipedia.org/wiki/Presentation_timestamp. In 1.5.0 hinzugefügt |
ConversationTranscribingService_DataBufferUserId | 11002 | Der Benutzerbezeichner, der dem vom Client geschriebenen Datenpuffer bei Verwendung von Pull/Push-Audiomodusstreams zugeordnet ist. In 1.5.0 hinzugefügt |
LanguageUnderstandingServiceResponse_JsonResult | 7000 | Die Language Understanding-Dienstantwortausgabe (im JSON-Format). Verfügbar über Properties. |
PronunciationAssessment_EnableMiscue | 12005 | Gibt den Fehlerhaften Berechnungszustand an. Wenn diese Option aktiviert ist, werden die ausgesprochenen Wörter mit dem Referenztext verglichen und basierend auf dem Vergleich mit Auslassung/Einfügung gekennzeichnet. Die Standardeinstellung ist false. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt |
PronunciationAssessment_GradingSystem | 12002 | Das Punktsystem für die Kalibrierung der Aussprachebewertung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt |
PronunciationAssessment_Granularity | 12003 | Die Granularität der Ausspracheauswertung (Phonem, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt |
PronunciationAssessment_Json | 12009 | Die JSON-Zeichenfolge der Aussprachebewertungsparameter. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt |
PronunciationAssessment_NBestPhonemeCount | 12007 | Die Ausspracheauswertung nbest phonem count. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen NBestPhonemeCount. In Version 1.20.0 hinzugefügt |
PronunciationAssessment_Params | 12010 | Aussprachebewertungsparameter. Diese Eigenschaft ist schreibgeschützt. In 1.14.0 hinzugefügt |
PronunciationAssessment_PhonemeAlphabet | 12006 | Das Phonemal der Ausspracheauswertung. Die gültigen Werte sind "SAPI" (Standard) und "IPA" Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PhonemeAlphabet. In Version 1.20.0 hinzugefügt |
PronunciationAssessment_ReferenceText | 12001 | Der Referenztext des Audios für die Ausspracheauswertung. Ausführliche Informationen hierzu und die folgenden Aussprachebewertungsparameter finden Sie unter Parameter zur Bewertung der Aussprache . Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In 1.14.0 hinzugefügt |
SpeakerRecognition_Api_Version | 13001 | Sprechererkennungs-API-Version. Hinzugefügt in 1.18.0 |
Speech_LogFilename | 9001 | Der Dateiname zum Schreiben von Protokollen. In 1.4.0 hinzugefügt |
Speech_SegmentationSilenceTimeoutMs | 9002 | Eine In Millisekunden gemessene Dauer der erkannten Stille, nach der die Spracherkennung bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert wird. Das Konfigurieren dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent zu zu langen oder zu kurzen Ergebnissen führt. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Spracherkennungsgenauigkeit auswirken. Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte wie vorgesehen gründlich überprüft werden. Weitere Informationen zur Konfiguration von Timeouts, die eine Erläuterung des Standardverhaltens enthalten, finden Sie unter https://aka.ms/csspeech/timeouts. |
Speech_SessionId | 3002 | Die Sitzungs-ID. Diese ID ist ein universell eindeutiger Bezeichner (auch als UUID bezeichnet), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennung instance darstellt, an die er gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionId. |
SpeechServiceAuthorization_Token | 1003 | Das Autorisierungstoken des Speech-Diensts (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromAuthorizationToken(String, String)stattdessen , AuthorizationToken, AuthorizationToken, AuthorizationToken. |
SpeechServiceAuthorization_Type | 1004 | Nicht verwendet. Der Autorisierungstyp des Speech-Diensts. |
SpeechServiceConnection_AutoDetectSourceLanguageResult | 3301 | Das Ergebnis der automatischen Erkennung der Quellsprache. Hinzugefügt in 1.9.0 |
SpeechServiceConnection_AutoDetectSourceLanguages | 3300 | Die automatische Erkennung von Quellsprachen. Hinzugefügt in 1.9.0 |
SpeechServiceConnection_EnableAudioLogging | 3202 | Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im Microsoft-eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement (Bring Your Own Storage, BYOS) verknüpft ist. In 1.5.0 hinzugefügt. |
SpeechServiceConnection_Endpoint | 1001 | Der Speech-Dienstendpunkt, eine URL. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromEndpoint(Uri, String)stattdessen , oder FromEndpoint(Uri). HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird. |
SpeechServiceConnection_EndpointId | 1005 | Die Id des Benutzerdefinierten Spracherkennungs- oder Custom Voice Service-Endpunkts. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromEndpoint(Uri, String)stattdessen , oder FromEndpoint(Uri). HINWEIS: Die Endpunkt-ID ist im Custom Speech-Portal verfügbar, das unter Endpunktdetails aufgeführt ist. |
SpeechServiceConnection_EndSilenceTimeoutMs | 3201 | Der vom Dienst verwendete End Silence-Timeoutwert (in Millisekunden). In 1.5.0 hinzugefügt |
SpeechServiceConnection_Host | 1006 | Der Speech-Diensthost (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromHost(Uri, String)stattdessen , oder FromHost(Uri). |
SpeechServiceConnection_InitialSilenceTimeoutMs | 3200 | Der anfängliche Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. In 1.5.0 hinzugefügt |
SpeechServiceConnection_IntentRegion | 2003 | Die Language Understanding-Dienstregion. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel. |
SpeechServiceConnection_Key | 1000 | Der Abonnementschlüssel, der mit Speech-Dienstendpunkten verwendet wird. Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen FromSubscription(String, String). |
SpeechServiceConnection_LanguageIdMode | 3205 | Der Spracherkennungsmodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Continuous" sein. Weitere Informationen finden Sie unter Spracherkennungsdokument . In 1.25.0 hinzugefügt |
SpeechServiceConnection_ProxyHostName | 1100 | Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Speech-Dienst verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SetProxy(String, Int32, String, String). In 1.1.0 hinzugefügt |
SpeechServiceConnection_ProxyPassword | 1103 | Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Speech-Dienst verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SetProxy(String, Int32, String, String). In 1.1.0 hinzugefügt |
SpeechServiceConnection_ProxyPort | 1101 | Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Speech-Dienst verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SetProxy(String, Int32, String, String). In 1.1.0 hinzugefügt |
SpeechServiceConnection_ProxyUserName | 1102 | Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Speech-Dienst verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SetProxy(String, Int32, String, String). In 1.1.0 hinzugefügt |
SpeechServiceConnection_RecoBackend | 3004 | Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist die Offlineoption nur gültig, wenn EmbeddedSpeechConfig verwendet wird. Hinzugefügt in Version 1.19.0 |
SpeechServiceConnection_RecoLanguage | 3001 | Die zu erkennende Gesprochene Sprache (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechRecognitionLanguage. |
SpeechServiceConnection_RecoMode | 3000 | Der Erkennungsmodus des Speech-Diensts. Kann INTERAKTIV, UNTERHALTUNG, DIKTATION sein. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. |
SpeechServiceConnection_RecoModelKey | 3006 | Der Entschlüsselungsschlüssel des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. Hinzugefügt in Version 1.19.0 |
SpeechServiceConnection_RecoModelName | 3005 | Der Name des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. Hinzugefügt in Version 1.19.0 |
SpeechServiceConnection_Region | 1002 | Die dem Abonnementschlüssel zugeordnete Speech-Dienstregion. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie FromSubscription(String, String)stattdessen , FromEndpoint(Uri, String), FromEndpoint(Uri), FromHost(Uri, String), FromHost(Uri), . FromAuthorizationToken(String, String) |
SpeechServiceConnection_SynthBackend | 3110 | Die Zeichenfolge zum Angeben des TTS-Back-Ends; gültige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen FromPath(String) oder FromPaths(String[]). , um das Synthese-Back-End auf offline festzulegen. Hinzugefügt in Version 1.19.0 |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission | 3103 | Gibt an, ob das komprimierte Audioformat für die Sprachsynthese-Audioübertragung verwendet werden soll. Diese Eigenschaft ist nur wichtig, wenn SpeechServiceConnection_SynthOutputFormat auf ein pcm-Format festgelegt ist. Wenn diese Eigenschaft nicht auf true festgelegt ist und GStreamer verfügbar ist, verwendet das SDK ein komprimiertes Format für die synthetisierte Audioübertragung und decodiert es. Sie können diese Eigenschaft auf false festlegen, um das rohe pcm-Format für die Übertragung über Kabel zu verwenden. In 1.16.0 hinzugefügt |
SpeechServiceConnection_SynthLanguage | 3100 | Die gesprochene Sprache, die synthetisiert werden soll (z. B. en-US). In 1.4.0 hinzugefügt |
SpeechServiceConnection_SynthModelKey | 3114 | Der Entschlüsselungsschlüssel des Modells, das für die Sprachsynthese verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen SetSpeechSynthesisVoice(String, String). Hinzugefügt in Version 1.19.0 |
SpeechServiceConnection_SynthOfflineDataPath | 3112 | Die Datendateipfade für die Offlinesynthese-Engine; nur gültig, wenn das Synthese-Back-End offline ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen FromPath(String) oder FromPaths(String[]). Hinzugefügt in Version 1.19.0 |
SpeechServiceConnection_SynthOfflineVoice | 3113 | Der Name der Offline-TTS-Stimme, die für die Sprachsynthese verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen SetSpeechSynthesisVoice(String, String). Hinzugefügt in Version 1.19.0 |
SpeechServiceConnection_SynthOutputFormat | 3102 | Die Zeichenfolge zum Angeben des Audioformats für sprachsyntheseausgabe (z. B. riff-16khz-16bit-mono-pcm) Hinzugefügt in 1.4.0 |
SpeechServiceConnection_SynthVoice | 3101 | Der Name der Stimme, die für Text-to-Speech verwendet werden soll. In 1.4.0 hinzugefügt |
SpeechServiceConnection_TranslationFeatures | 2002 | Übersetzungsfeatures. Für die interne Verwendung. |
SpeechServiceConnection_TranslationToLanguages | 2000 | Die Liste der durch Kommas getrennten Sprachen (im BCP-47-Format), die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie AddTargetLanguage(String) stattdessen und die schreibgeschützte TargetLanguages Auflistung. |
SpeechServiceConnection_TranslationVoice | 2001 | Der Name der Stimme, die für Text-to-Speech verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen VoiceName. Hier finden Sie gültige Sprachnamen. |
SpeechServiceConnection_Url | 1104 | Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet diesen Wert intern. In 1.5.0 hinzugefügt |
SpeechServiceConnection_VoicesListEndpoint | 3130 | Der Cognitive Services Speech Service-Stimmenlisten-API-Endpunkt (URL). Unter normalen Umständen müssen Sie diese Eigenschaft nicht angeben. Das SDK erstellt sie basierend auf der Region/dem Host/Endpunkt von SpeechConfig. In 1.16.0 hinzugefügt |
SpeechServiceResponse_JsonErrorDetails | 5001 | Fehlerdetails des Speech-Diensts (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen ErrorDetails. |
SpeechServiceResponse_JsonResult | 5000 | Die Antwortausgabe des Speech-Diensts (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar. |
SpeechServiceResponse_OutputFormatOption | 4006 | Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur zur internen Verwendung. In 1.5.0 hinzugefügt |
SpeechServiceResponse_PostProcessingOption | 4003 | Ein Zeichenfolgenwert, der angibt, welche Nachverarbeitungsoption vom Dienst verwendet werden soll. Zulässiger Wert: TrueText. In 1.5.0 hinzugefügt |
SpeechServiceResponse_ProfanityOption | 4002 | Die angeforderte Einstellung für die Ausgabe der Sprachausgabe des Speech-Diensts. Zulässige Werte werden maskiert, entfernt und unformatiert. In 1.5.0 hinzugefügt |
SpeechServiceResponse_RecognitionBackend | 5003 | Das Erkennungs-Back-End. Schreibgeschützt, verfügbar für Spracherkennungsergebnisse. Dies gibt an, ob die Clouderkennung (online) oder eingebettete (offline) Erkennung verwendet wurde, um das Ergebnis zu erzeugen. |
SpeechServiceResponse_RecognitionLatencyMs | 5002 | Die Erkennungslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Sprach-,Übersetzungs-/Absichtsergebnisse. Dies misst die Latenz zwischen dem Empfang einer Audioeingabe durch das SDK und dem Zeitpunkt, zu dem das endgültige Ergebnis vom Dienst empfangen wird. Das SDK berechnet den Zeitunterschied zwischen dem letzten Audiofragment aus der Audioeingabe, die zum Endergebnis beiträgt, und der Zeit, zu der das Endergebnis vom Sprachdienst empfangen wird. In 1.3.0 hinzugefügt |
SpeechServiceResponse_RequestDetailedResultTrueFalse | 4000 | Das angeforderte Ausgabeformat des Speech-Diensts (OutputFormat.Simple oder OutputFormat.Detailed). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen OutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse | 4001 | Nicht verwendet. Die angeforderte Ausgabestufe für die Antwort des Speech-Diensts |
SpeechServiceResponse_RequestPunctuationBoundary | 4201 | Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "True". In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestSentenceBoundary | 4202 | Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "false". In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestSnr | 4007 | Ein boolescher Wert, der angibt, ob SNR (Signal-Rausch-Verhältnis) in das Antwortergebnis einbezogen werden soll. Hinzugefügt in Version 1.18.0 |
SpeechServiceResponse_RequestWordBoundary | 4200 | Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse anzufordern sind. In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestWordLevelTimestamps | 4004 | Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. In 1.5.0 hinzugefügt |
SpeechServiceResponse_StablePartialResultThreshold | 4005 | Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. In 1.5.0 hinzugefügt |
SpeechServiceResponse_SynthesisBackend | 5020 | Gibt an, von welchem Back-End die Synthese abgeschlossen wird. Schreibgeschützt, verfügbar für Sprachsyntheseergebnisse, mit Ausnahme des Ergebnisses im SynthesisStarted-Ereignis. In Version 1.19.0 hinzugefügt. |
SpeechServiceResponse_SynthesisConnectionLatencyMs | 5013 | Die Latenz der Sprachsyntheseverbindung in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Zeitpunkt, zu dem die HTTP/WebSocket-Verbindung hergestellt wird. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisEventsSyncToAudio | 4210 | Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse (z. B. Wortgrenze, Viseme usw.) mit der Audiowiedergabe synchronisieren soll. Dies wird nur wirksam, wenn die Audiowiedergabe über das SDK erfolgt. Der Standardwert ist "True". Wenn auf false festgelegt ist, löst das SDK die Ereignisse aus, wenn sie vom Dienst stammen, was möglicherweise nicht mit der Audiowiedergabe synchronisiert ist. In Version 1.31.0 hinzugefügt. |
SpeechServiceResponse_SynthesisFinishLatencyMs | 5011 | Die Sprachsynthese aller Byteslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Moment, an dem das gesamte Audio synthetisiert wird. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs | 5010 | Die Erstbytelatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Moment, zu dem das erste Byte-Audio verfügbar ist. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisNetworkLatencyMs | 5014 | Die Netzwerklatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Netzwerk-Rundreisezeit. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisServiceLatencyMs | 5015 | Die Latenz des Sprachsynthesediensts in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Dienstverarbeitungszeit, um das erste Byte von Audio zu synthetisieren. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisUnderrunTimeMs | 5012 | Die Unterlaufzeit für die Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für Ergebnisse in SynthesisCompleted-Ereignissen. Dies misst die gesamte Unterlaufzeit von AudioConfig_PlaybackBufferLengthInMs gefüllt bis synthese abgeschlossen. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_TranslationRequestStablePartialResult | 4100 | Ein boolescher Wert, der die Stabilisierung von Übersetzungsteilergebnissen anfordern soll, indem wörter am Ende weggelassen werden. In 1.5.0 hinzugefügt |
SpeechTranslation_ModelKey | 13101 | Der Entschlüsselungsschlüssel eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
SpeechTranslation_ModelName | 13100 | Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
Gilt für:
Azure SDK for .NET