Freigeben über


PropertyId Enumeration

  • java.lang.Object
    • java.lang.Enum
      • com.microsoft.cognitiveservices.speech.PropertyId

public enum PropertyId
extends java.lang.Enum<PropertyId>

Definiert Eigenschafts-IDs. In Version 1.8.0 geändert.

Felder

AudioConfig_AudioProcessingOptions

Audioverarbeitungsoptionen im JSON-Format.

AudioConfig_DeviceNameForRender

Der Gerätename für das Audiorendern.

AudioConfig_PlaybackBufferLengthInMs

Wiedergabepufferlänge in Millisekunden, Standardwert 50 Millisekunden.

CancellationDetails_Reason

Der Grund für den Abbruch.

CancellationDetails_ReasonDetailedText

Der abbruchdetailse Text.

CancellationDetails_ReasonText

Der Abbruchtext.

Conversation_ApplicationId

Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird.

Conversation_Connection_Id

Zusätzliche Identifizierende Informationen, z. B. ein Direct Line Token, die für die Authentifizierung beim Back-End-Dienst verwendet werden.

Conversation_Conversation_Id

Unterhaltungs-IDfür die Sitzung.

Conversation_Custom_Voice_Deployment_Ids

Durch Trennzeichen getrennte Liste der benutzerdefinierten Sprachbereitstellungs-IDs.

Conversation_DialogType

Typ des Dialog-Back-Ends, mit dem eine Verbindung hergestellt werden soll.

Conversation_From_Id

From ID to be used on speech recognition activities In Version 1.5.0 hinzugefügt.

Conversation_Initial_Silence_Timeout

Stille Timeout für Das Lauschen wurde in Version 1.5.0 hinzugefügt.

Conversation_Request_Bot_Status_Messages

Ein boolescher Wert, der angibt, ob der Client status Nachrichten empfangen und entsprechende TurnstatusempfangeneEreignisse generieren soll.

Conversation_Speech_Activity_Template

Vorlage für Sprachaktivität, Stempeleigenschaften in der Vorlage für die aktivität, die vom Dienst für Sprache generiert wurde.

DataBuffer_TimeStamp

Der Zeitstempel, der dem Datenpuffer zugeordnet ist, der vom Client bei Verwendung von Pull/Push-Audiomodusstreams geschrieben wird.

DataBuffer_UserId

Die Benutzer-ID, die dem vom Client geschriebenen Datenpuffer zugeordnet ist, wenn Datenstreams im Pull/Push-Modus verwendet werden.

LanguageUnderstandingServiceResponse_JsonResult

Die Antwortausgabe des Language Understanding-Diensts (im JSON-Format).

PronunciationAssessment_EnableMiscue

Definiert, ob fehlgeleitete Berechnung aktiviert wird.

PronunciationAssessment_GradingSystem

Das Punktsystem für die Aussprachebewertungskalibrierung (FünfPunkt oder HundertMark).

PronunciationAssessment_Granularity

Die Granularität der Ausspracheauswertung (Phoneme, Word oder Volltext).

PronunciationAssessment_Json

Die JSON-Zeichenfolge der Aussprachebewertungsparameter Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen.

PronunciationAssessment_NBestPhonemeCount

Die Anzahl der Phoneme der Ausspracheauswertung nbest.

PronunciationAssessment_Params

Aussprachebewertungsparameter.

PronunciationAssessment_PhonemeAlphabet

Das Phonemalal für die Ausspracheauswertung.

PronunciationAssessment_ReferenceText

Der Referenztext des Audiosignals für die Ausspracheauswertung.

SpeakerRecognition_Api_Version

Zu verwendende Version der Sprechererkennung.

SpeechServiceAuthorization_Token

Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet).

SpeechServiceAuthorization_Type

Der Cognitive Services Speech Service-Autorisierungstyp.

SpeechServiceConnection_AutoDetectSourceLanguageResult

Das Ergebnis der automatischen Erkennung der Quellsprache Wurde in Version 1.8.0 hinzugefügt.

SpeechServiceConnection_AutoDetectSourceLanguages

Die in Version 1.8.0 hinzugefügten Quellsprachen für die automatische Erkennung.

SpeechServiceConnection_EnableAudioLogging

Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist.

SpeechServiceConnection_EndSilenceTimeoutMs

Der vom Dienst verwendete End Silence-Timeoutwert (in Millisekunden).

SpeechServiceConnection_Endpoint

Der Cognitive Services Speech Service-Endpunkt (URL).

SpeechServiceConnection_EndpointId

Die Cognitive Services Custom Speech- oder Custom Voice Service-Endpunkt-ID.

SpeechServiceConnection_Host

Der Cognitive Services Speech Service-Host (URL).

SpeechServiceConnection_InitialSilenceTimeoutMs

Der anfängliche Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird.

SpeechServiceConnection_IntentRegion

Die Language Understanding-Dienstregion.

SpeechServiceConnection_Key

Der Cognitive Services Speech Service-Abonnementschlüssel.

SpeechServiceConnection_LanguageIdMode

Der Spracherkennungsmodus für die Spracherkennung des Sprachdiensts.

SpeechServiceConnection_ProxyHostName

Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird.

SpeechServiceConnection_ProxyPassword

Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird.

SpeechServiceConnection_ProxyPort

Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird.

SpeechServiceConnection_ProxyUserName

Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird.

SpeechServiceConnection_RecoBackend

Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline.

SpeechServiceConnection_RecoLanguage

Die zu erkennende Gesprochene Sprache (im BCP-47-Format).

SpeechServiceConnection_RecoMode

Der Cognitive Services Speech Service-Erkennungsmodus.

SpeechServiceConnection_RecoModelKey

Der Entschlüsselungsschlüssel des Modells, das für die Spracherkennung verwendet werden soll.

SpeechServiceConnection_RecoModelName

Der Name des Modells, das für die Spracherkennung verwendet werden soll.

SpeechServiceConnection_Region

Die Cognitive Services Speech Service-Region.

SpeechServiceConnection_SynthBackend

Die Zeichenfolge zum Angeben des TTS-Back-Ends; gültige Optionen sind online und offline.

SpeechServiceConnection_SynthEnableCompressedAudioTransmission

Gibt an, ob das komprimierte Audioformat für die Sprachsynthese-Audioübertragung verwendet wird.

SpeechServiceConnection_SynthLanguage

Die gesprochene Sprache, die synthetisiert werden soll (z. B.

SpeechServiceConnection_SynthModelKey

Der Entschlüsselungsschlüssel des Modells, das für die Sprachsynthese verwendet werden soll.

SpeechServiceConnection_SynthOfflineDataPath

Die Datendateipfade für die Offlinesynthese-Engine; nur gültig, wenn das Synthese-Back-End offline ist.

SpeechServiceConnection_SynthOfflineVoice

Der Name der Offline-TTS-Stimme, die für die Sprachsynthese verwendet werden soll.

SpeechServiceConnection_SynthOutputFormat

Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats (z. B.

SpeechServiceConnection_SynthVoice

Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll In Version 1.7.0 hinzugefügt

SpeechServiceConnection_TranslationFeatures

Übersetzungsfeatures.

SpeechServiceConnection_TranslationToLanguages

Die Liste der durch Trennzeichen getrennten Sprachen (BCP-47-Format), die als Zielübersetzungssprachen verwendet werden.

SpeechServiceConnection_TranslationVoice

Der Name der Cognitive Service Text to Speech Service-Stimme.

SpeechServiceConnection_Url

Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde.

SpeechServiceConnection_VoicesListEndpoint

Der Api-Endpunkt der Cognitive Services Speech Service-Stimmenliste (URL).

SpeechServiceResponse_JsonErrorDetails

Die Cognitive Services Speech Service-Fehlerdetails (im JSON-Format).

SpeechServiceResponse_JsonResult

Die Cognitive Services Speech Service-Antwortausgabe (im JSON-Format).

SpeechServiceResponse_OutputFormatOption

Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt.

SpeechServiceResponse_PostProcessingOption

Ein Zeichenfolgenwert, der angibt, welche Nachbearbeitungsoption vom Dienst verwendet werden soll.

SpeechServiceResponse_ProfanityOption

Die angeforderte Einstellung für die Ausgabe der Anstößigkeit von Cognitive Services Speech Service.

SpeechServiceResponse_RecognitionBackend

Das Erkennungs-Back-End.

SpeechServiceResponse_RecognitionLatencyMs

Die Erkennungslatenz in Millisekunden.

SpeechServiceResponse_RequestDetailedResultTrueFalse

Das angeforderte Cognitive Services Speech Service-Antwortausgabeformat (einfach oder detailliert).

SpeechServiceResponse_RequestProfanityFilterTrueFalse

Die angeforderte Ausgabestufe der Cognitive Services Speech Service-Antwort.

SpeechServiceResponse_RequestPunctuationBoundary

Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in Word Boundary Events angefordert werden soll.

SpeechServiceResponse_RequestSentenceBoundary

Ein boolescher Wert, der angibt, ob die Satzgrenze in Word Boundary Events angefordert werden soll.

SpeechServiceResponse_RequestSnr

Ein boolescher Wert, der angibt, ob SNR (Signal-Rausch-Verhältnis) in das Antwortergebnis eingeschlossen werden soll.

SpeechServiceResponse_RequestWordBoundary

Ein boolescher Wert, der angibt, ob Word Boundary-Ereignisse angefordert werden sollen.

SpeechServiceResponse_RequestWordLevelTimestamps

Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen.

SpeechServiceResponse_StablePartialResultThreshold

Gibt an, wie oft ein Wort in Teilergebnissen enthalten sein muss, um zurückgegeben zu werden.

SpeechServiceResponse_SynthesisBackend

Gibt an, mit welchem Back-End die Synthese abgeschlossen wird.

SpeechServiceResponse_SynthesisConnectionLatencyMs

Die Latenz der Sprachsyntheseverbindung in Millisekunden.

SpeechServiceResponse_SynthesisEventsSyncToAudio

Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse synchronisieren soll (z. B.

SpeechServiceResponse_SynthesisFinishLatencyMs

Die Sprachsynthese aller Bytes in Millisekunden.

SpeechServiceResponse_SynthesisFirstByteLatencyMs

Die Erste Bytelatenz der Sprachsynthese in Millisekunden.

SpeechServiceResponse_SynthesisNetworkLatencyMs

Die Netzwerklatenz der Sprachsynthese in Millisekunden.

SpeechServiceResponse_SynthesisServiceLatencyMs

Die Latenz des Sprachsynthesediensts in Millisekunden.

SpeechServiceResponse_SynthesisUnderrunTimeMs

Die Unterlaufzeit für die Sprachsynthese in Millisekunden.

SpeechServiceResponse_TranslationRequestStablePartialResult

Ein boolescher Wert, der die Stabilisierung von Übersetzungsteilergebnissen durch Weglassen von Wörtern anzufordern soll.

SpeechTranslation_ModelKey

Der Entschlüsselungsschlüssel eines Modells, das für die Sprachübersetzung verwendet werden soll.

SpeechTranslation_ModelName

Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll.

Speech_LogFilename

Der Dateiname zum Schreiben von Protokollen.

Speech_SegmentationSilenceTimeoutMs

Eine In Millisekunden gemessene Dauer der erkannten Stille, nach der die Spracherkennung bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges Erkanntes Ergebnis generiert.

Speech_SessionId

Die Sitzungs-ID.

Geerbte Methoden von java.lang.Enum

java.lang.Enum.<T>valueOf java.lang.Enum.clone java.lang.Enum.compareTo java.lang.Enum.equals java.lang.Enum.finalize java.lang.Enum.getDeclaringClass java.lang.Enum.hashCode java.lang.Enum.name java.lang.Enum.ordinal java.lang.Enum.toString

Geerbte Methoden von java.lang.Object

java.lang.Object.getClass java.lang.Object.notify java.lang.Object.notifyAll java.lang.Object.wait java.lang.Object.wait java.lang.Object.wait

Methoden

getValue()

public int getValue()

Gibt die id der internen Werteigenschaft zurück.

Gibt zurück

int
die Id der Spracheigenschaft

valueOf(String name)

public static PropertyId valueOf(String name)

Parameter

name
java.lang.String

Gibt zurück

values()

public static PropertyId[] values()

Gibt zurück

Gilt für: