PropertyId Enumeration
- java.
lang. Object - java.
lang. Enum - com.
microsoft. cognitiveservices. speech. PropertyId
- com.
- java.
public enum PropertyId
extends java.lang.Enum<PropertyId>
Definiert Eigenschafts-IDs. In Version 1.8.0 geändert.
Felder
AudioConfig_AudioProcessingOptions |
Audioverarbeitungsoptionen im JSON-Format. |
AudioConfig_DeviceNameForRender |
Der Gerätename für das Audiorendern. |
AudioConfig_PlaybackBufferLengthInMs |
Wiedergabepufferlänge in Millisekunden, Standardwert 50 Millisekunden. |
CancellationDetails_Reason |
Der Grund für den Abbruch. |
CancellationDetails_ReasonDetailedText |
Der abbruchdetailse Text. |
CancellationDetails_ReasonText |
Der Abbruchtext. |
Conversation_ApplicationId |
Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. |
Conversation_Connection_Id |
Zusätzliche Identifizierende Informationen, z. B. ein Direct Line Token, die für die Authentifizierung beim Back-End-Dienst verwendet werden. |
Conversation_Conversation_Id |
Unterhaltungs-ID |
Conversation_Custom_Voice_Deployment_Ids |
Durch Trennzeichen getrennte Liste der benutzerdefinierten Sprachbereitstellungs-IDs. |
Conversation_DialogType |
Typ des Dialog-Back-Ends, mit dem eine Verbindung hergestellt werden soll. |
Conversation_From_Id |
From ID to be used on speech recognition activities In Version 1.5.0 hinzugefügt. |
Conversation_Initial_Silence_Timeout |
Stille Timeout für Das Lauschen wurde in Version 1.5.0 hinzugefügt. |
Conversation_Request_Bot_Status_Messages |
Ein boolescher Wert, der angibt, ob der Client status Nachrichten empfangen und entsprechende Turnstatus |
Conversation_Speech_Activity_Template |
Vorlage für Sprachaktivität, Stempeleigenschaften in der Vorlage für die aktivität, die vom Dienst für Sprache generiert wurde. |
DataBuffer_TimeStamp |
Der Zeitstempel, der dem Datenpuffer zugeordnet ist, der vom Client bei Verwendung von Pull/Push-Audiomodusstreams geschrieben wird. |
DataBuffer_UserId |
Die Benutzer-ID, die dem vom Client geschriebenen Datenpuffer zugeordnet ist, wenn Datenstreams im Pull/Push-Modus verwendet werden. |
LanguageUnderstandingServiceResponse_JsonResult |
Die Antwortausgabe des Language Understanding-Diensts (im JSON-Format). |
PronunciationAssessment_EnableMiscue |
Definiert, ob fehlgeleitete Berechnung aktiviert wird. |
PronunciationAssessment_GradingSystem |
Das Punktsystem für die Aussprachebewertungskalibrierung (Fünf |
PronunciationAssessment_Granularity |
Die Granularität der Ausspracheauswertung (Phoneme, Word oder Volltext |
PronunciationAssessment_Json |
Die JSON-Zeichenfolge der Aussprachebewertungsparameter Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. |
PronunciationAssessment_NBestPhonemeCount |
Die Anzahl der Phoneme der Ausspracheauswertung nbest. |
PronunciationAssessment_Params |
Aussprachebewertungsparameter. |
PronunciationAssessment_PhonemeAlphabet |
Das Phonemalal für die Ausspracheauswertung. |
PronunciationAssessment_ReferenceText |
Der Referenztext des Audiosignals für die Ausspracheauswertung. |
SpeakerRecognition_Api_Version |
Zu verwendende Version der Sprechererkennung. |
SpeechServiceAuthorization_Token |
Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet). |
SpeechServiceAuthorization_Type |
Der Cognitive Services Speech Service-Autorisierungstyp. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Das Ergebnis der automatischen Erkennung der Quellsprache Wurde in Version 1.8.0 hinzugefügt. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Die in Version 1.8.0 hinzugefügten Quellsprachen für die automatische Erkennung. |
SpeechServiceConnection_EnableAudioLogging |
Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Der vom Dienst verwendete End Silence-Timeoutwert (in Millisekunden). |
SpeechServiceConnection_Endpoint |
Der Cognitive Services Speech Service-Endpunkt (URL). |
SpeechServiceConnection_EndpointId |
Die Cognitive Services Custom Speech- oder Custom Voice Service-Endpunkt-ID. |
SpeechServiceConnection_Host |
Der Cognitive Services Speech Service-Host (URL). |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Der anfängliche Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. |
SpeechServiceConnection_IntentRegion |
Die Language Understanding-Dienstregion. |
SpeechServiceConnection_Key |
Der Cognitive Services Speech Service-Abonnementschlüssel. |
SpeechServiceConnection_LanguageIdMode |
Der Spracherkennungsmodus für die Spracherkennung des Sprachdiensts. |
SpeechServiceConnection_ProxyHostName |
Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. |
SpeechServiceConnection_ProxyPassword |
Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. |
SpeechServiceConnection_ProxyPort |
Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. |
SpeechServiceConnection_ProxyUserName |
Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. |
SpeechServiceConnection_RecoBackend |
Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline. |
SpeechServiceConnection_RecoLanguage |
Die zu erkennende Gesprochene Sprache (im BCP-47-Format). |
SpeechServiceConnection_RecoMode |
Der Cognitive Services Speech Service-Erkennungsmodus. |
SpeechServiceConnection_RecoModelKey |
Der Entschlüsselungsschlüssel des Modells, das für die Spracherkennung verwendet werden soll. |
SpeechServiceConnection_RecoModelName |
Der Name des Modells, das für die Spracherkennung verwendet werden soll. |
SpeechServiceConnection_Region |
Die Cognitive Services Speech Service-Region. |
SpeechServiceConnection_SynthBackend |
Die Zeichenfolge zum Angeben des TTS-Back-Ends; gültige Optionen sind online und offline. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Gibt an, ob das komprimierte Audioformat für die Sprachsynthese-Audioübertragung verwendet wird. |
SpeechServiceConnection_SynthLanguage |
Die gesprochene Sprache, die synthetisiert werden soll (z. |
SpeechServiceConnection_SynthModelKey |
Der Entschlüsselungsschlüssel des Modells, das für die Sprachsynthese verwendet werden soll. |
SpeechServiceConnection_SynthOfflineDataPath |
Die Datendateipfade für die Offlinesynthese-Engine; nur gültig, wenn das Synthese-Back-End offline ist. |
SpeechServiceConnection_SynthOfflineVoice |
Der Name der Offline-TTS-Stimme, die für die Sprachsynthese verwendet werden soll. |
SpeechServiceConnection_SynthOutputFormat |
Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats (z. |
SpeechServiceConnection_SynthVoice |
Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll In Version 1.7.0 hinzugefügt |
SpeechServiceConnection_TranslationFeatures |
Übersetzungsfeatures. |
SpeechServiceConnection_TranslationToLanguages |
Die Liste der durch Trennzeichen getrennten Sprachen (BCP-47-Format), die als Zielübersetzungssprachen verwendet werden. |
SpeechServiceConnection_TranslationVoice |
Der Name der Cognitive Service Text to Speech Service-Stimme. |
SpeechServiceConnection_Url |
Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. |
SpeechServiceConnection_VoicesListEndpoint |
Der Api-Endpunkt der Cognitive Services Speech Service-Stimmenliste (URL). |
SpeechServiceResponse_JsonErrorDetails |
Die Cognitive Services Speech Service-Fehlerdetails (im JSON-Format). |
SpeechServiceResponse_JsonResult |
Die Cognitive Services Speech Service-Antwortausgabe (im JSON-Format). |
SpeechServiceResponse_OutputFormatOption |
Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. |
SpeechServiceResponse_PostProcessingOption |
Ein Zeichenfolgenwert, der angibt, welche Nachbearbeitungsoption vom Dienst verwendet werden soll. |
SpeechServiceResponse_ProfanityOption |
Die angeforderte Einstellung für die Ausgabe der Anstößigkeit von Cognitive Services Speech Service. |
SpeechServiceResponse_RecognitionBackend |
Das Erkennungs-Back-End. |
SpeechServiceResponse_RecognitionLatencyMs |
Die Erkennungslatenz in Millisekunden. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Das angeforderte Cognitive Services Speech Service-Antwortausgabeformat (einfach oder detailliert). |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Die angeforderte Ausgabestufe der Cognitive Services Speech Service-Antwort. |
SpeechServiceResponse_RequestPunctuationBoundary |
Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in Word |
SpeechServiceResponse_RequestSentenceBoundary |
Ein boolescher Wert, der angibt, ob die Satzgrenze in Word |
SpeechServiceResponse_RequestSnr |
Ein boolescher Wert, der angibt, ob SNR (Signal-Rausch-Verhältnis) in das Antwortergebnis eingeschlossen werden soll. |
SpeechServiceResponse_RequestWordBoundary |
Ein boolescher Wert, der angibt, ob Word |
SpeechServiceResponse_RequestWordLevelTimestamps |
Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. |
SpeechServiceResponse_StablePartialResultThreshold |
Gibt an, wie oft ein Wort in Teilergebnissen enthalten sein muss, um zurückgegeben zu werden. |
SpeechServiceResponse_SynthesisBackend |
Gibt an, mit welchem Back-End die Synthese abgeschlossen wird. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Die Latenz der Sprachsyntheseverbindung in Millisekunden. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse synchronisieren soll (z |
SpeechServiceResponse_SynthesisFinishLatencyMs |
Die Sprachsynthese aller Bytes in Millisekunden. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Die Erste Bytelatenz der Sprachsynthese in Millisekunden. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Die Netzwerklatenz der Sprachsynthese in Millisekunden. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Die Latenz des Sprachsynthesediensts in Millisekunden. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Die Unterlaufzeit für die Sprachsynthese in Millisekunden. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Ein boolescher Wert, der die Stabilisierung von Übersetzungsteilergebnissen durch Weglassen von Wörtern anzufordern soll. |
SpeechTranslation_ModelKey |
Der Entschlüsselungsschlüssel eines Modells, das für die Sprachübersetzung verwendet werden soll. |
SpeechTranslation_ModelName |
Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll. |
Speech_LogFilename |
Der Dateiname zum Schreiben von Protokollen. |
Speech_SegmentationSilenceTimeoutMs |
Eine In Millisekunden gemessene Dauer der erkannten Stille, nach der die Spracherkennung bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges Erkanntes Ergebnis generiert. |
Speech_SessionId |
Die Sitzungs-ID. |
Geerbte Methoden von java.lang.Enum
Geerbte Methoden von java.lang.Object
Methoden
getValue()
public int getValue()
Gibt die id der internen Werteigenschaft zurück.
Gibt zurück
valueOf(String name)
public static PropertyId valueOf(String name)
Parameter
- name
- java.lang.String
Gibt zurück
values()
Gilt für:
Azure SDK for Java