PropertyId Énumération
- java.
lang. Object - java.
lang. Enum - com.
microsoft. cognitiveservices. speech. PropertyId
- com.
- java.
public enum PropertyId
extends java.lang.Enum<PropertyId>
Définit les ID de propriété. Modification dans la version 1.8.0.
Champs
AudioConfig_AudioProcessingOptions |
Options de traitement audio au format JSON. |
AudioConfig_DeviceNameForRender |
Nom de l’appareil pour le rendu audio. |
AudioConfig_PlaybackBufferLengthInMs |
Longueur de la mémoire tampon de lecture en millisecondes, la valeur par défaut est de 50 millisecondes. |
CancellationDetails_Reason |
Motif de l’annulation. |
CancellationDetails_ReasonDetailedText |
Texte détaillé de l’annulation. |
CancellationDetails_ReasonText |
Texte d’annulation. |
Conversation_ApplicationId |
Identificateur utilisé pour se connecter au service principal. |
Conversation_Connection_Id |
Informations d’identification supplémentaires, telles qu’un jeton Direct Line, utilisées pour l’authentification auprès du service principal. |
Conversation_Conversation_Id |
ID de conversation |
Conversation_Custom_Voice_Deployment_Ids |
Liste séparée par des virgules des ID de déploiement de la voix personnalisée. |
Conversation_DialogType |
Type de back-end de dialogue auquel se connecter. |
Conversation_From_Id |
À partir de l’ID à utiliser sur les activités de reconnaissance vocale Ajouté dans la version 1.5.0. |
Conversation_Initial_Silence_Timeout |
Délai d’expiration du silence pour l’écoute Ajouté dans la version 1.5.0. |
Conversation_Request_Bot_Status_Messages |
Valeur booléenne qui spécifie si le client doit recevoir des messages status et générer les événements d’état |
Conversation_Speech_Activity_Template |
Modèle d’activité Speech, propriétés d’empreinte dans le modèle sur l’activité générée par le service de reconnaissance vocale. |
DataBuffer_TimeStamp |
Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push. |
DataBuffer_UserId |
ID d’utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push. |
LanguageUnderstandingServiceResponse_JsonResult |
Sortie de réponse du service Language Understanding (au format JSON). |
PronunciationAssessment_EnableMiscue |
Définit si activer le calcul incorrect. |
PronunciationAssessment_GradingSystem |
Système de points pour l’étalonnage du score de prononciation (Five |
PronunciationAssessment_Granularity |
Granularité de l’évaluation de la prononciation (Phonème, Word ou Texte intégral |
PronunciationAssessment_Json |
Chaîne json des paramètres d’évaluation de prononciation Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. |
PronunciationAssessment_NBestPhonemeCount |
Évaluation de la prononciation nbest phonème count. |
PronunciationAssessment_Params |
Paramètres d’évaluation de la prononciation. |
PronunciationAssessment_PhonemeAlphabet |
Alphabet du phonème d’évaluation de la prononciation. |
PronunciationAssessment_ReferenceText |
Texte de référence de l’audio pour l’évaluation de la prononciation. |
SpeakerRecognition_Api_Version |
Version de reconnaissance de l’orateur à utiliser. |
SpeechServiceAuthorization_Token |
Jeton d’autorisation du service Speech Cognitive Services (également appelé jeton d’accès). |
SpeechServiceAuthorization_Type |
Type d’autorisation Du service Speech Cognitive Services. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Le résultat de la détection automatique de la langue source a été ajouté dans la version 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Détection automatique des langues sources ajoutées dans la version 1.8.0. |
SpeechServiceConnection_EnableAudioLogging |
Valeur booléenne spécifiant si la journalisation audio est activée ou non dans le service. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service. |
SpeechServiceConnection_Endpoint |
Le point de terminaison du service Speech Cognitive Services (URL). |
SpeechServiceConnection_EndpointId |
L’ID de point de terminaison Custom Speech ou Custom Voice Service de Cognitive Services. |
SpeechServiceConnection_Host |
Hôte du service Speech Cognitive Services (URL). |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Valeur de délai d’expiration du silence initial (en millisecondes) utilisée par le service. |
SpeechServiceConnection_IntentRegion |
Région de service Language Understanding. |
SpeechServiceConnection_Key |
Clé d’abonnement au service Speech Cognitive Services. |
SpeechServiceConnection_LanguageIdMode |
Mode d’identificateur de langue de connexion du service speech. |
SpeechServiceConnection_ProxyHostName |
Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. |
SpeechServiceConnection_ProxyPassword |
Mot de passe du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. |
SpeechServiceConnection_ProxyPort |
Port du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. |
SpeechServiceConnection_ProxyUserName |
Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. |
SpeechServiceConnection_RecoBackend |
Chaîne à spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. |
SpeechServiceConnection_RecoLanguage |
Langue parlée à reconnaître (au format BCP-47). |
SpeechServiceConnection_RecoMode |
Mode de reconnaissance du service Speech Cognitive Services. |
SpeechServiceConnection_RecoModelKey |
Clé de déchiffrement du modèle à utiliser pour la reconnaissance vocale. |
SpeechServiceConnection_RecoModelName |
Nom du modèle à utiliser pour la reconnaissance vocale. |
SpeechServiceConnection_Region |
Région du service Speech Cognitive Services. |
SpeechServiceConnection_SynthBackend |
Chaîne pour spécifier le serveur principal TTS ; les options valides sont en ligne et hors connexion. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indique si le format audio compressé est utilisé pour la transmission audio de synthèse vocale. |
SpeechServiceConnection_SynthLanguage |
Langue parlée à synthétiser (par exemple |
SpeechServiceConnection_SynthModelKey |
Clé de déchiffrement du modèle à utiliser pour la synthèse vocale. |
SpeechServiceConnection_SynthOfflineDataPath |
Chemin d’accès au fichier de données pour le moteur de synthèse hors connexion ; Valide uniquement lorsque le serveur principal de synthèse est hors connexion. |
SpeechServiceConnection_SynthOfflineVoice |
Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale. |
SpeechServiceConnection_SynthOutputFormat |
Chaîne pour spécifier le format audio de sortie TTS (par exemple |
SpeechServiceConnection_SynthVoice |
Nom de la voix TTS à utiliser pour la synthèse vocale Ajouté dans la version 1.7.0 |
SpeechServiceConnection_TranslationFeatures |
Fonctionnalités de traduction. |
SpeechServiceConnection_TranslationToLanguages |
Liste des langues séparées par des virgules (format BCP-47) utilisées comme langues de traduction cibles. |
SpeechServiceConnection_TranslationVoice |
Nom de la voix du service de synthèse vocale Cognitive Service. |
SpeechServiceConnection_Url |
Chaîne d’URL générée à partir de la configuration vocale. |
SpeechServiceConnection_VoicesListEndpoint |
Point de terminaison (URL) de l’API de liste de voix du service Speech Cognitive Services. |
SpeechServiceResponse_JsonErrorDetails |
Détails de l’erreur du service Speech Cognitive Services (au format JSON). |
SpeechServiceResponse_JsonResult |
Sortie de réponse du service Speech Cognitive Services (au format JSON). |
SpeechServiceResponse_OutputFormatOption |
Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. |
SpeechServiceResponse_PostProcessingOption |
Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service. |
SpeechServiceResponse_ProfanityOption |
Paramètre de sortie de réponse du service Speech de Cognitive Services demandé. |
SpeechServiceResponse_RecognitionBackend |
Back-end de reconnaissance. |
SpeechServiceResponse_RecognitionLatencyMs |
Latence de reconnaissance en millisecondes. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Format de sortie de réponse du service Speech Cognitive Services demandé (simple ou détaillé). |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Niveau de grossièreté de la réponse du service Speech de Cognitive Services demandé. |
SpeechServiceResponse_RequestPunctuationBoundary |
Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans Word événements |
SpeechServiceResponse_RequestSentenceBoundary |
Valeur booléenne spécifiant s’il faut demander une limite de phrase dans Word événements |
SpeechServiceResponse_RequestSnr |
Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal/bruit) dans le résultat de la réponse. |
SpeechServiceResponse_RequestWordBoundary |
Valeur booléenne spécifiant s’il faut demander des événements Word |
SpeechServiceResponse_RequestWordLevelTimestamps |
Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. |
SpeechServiceResponse_StablePartialResultThreshold |
Nombre de fois où un mot doit être dans des résultats partiels à retourner. |
SpeechServiceResponse_SynthesisBackend |
Indique le back-end par lequel la synthèse est terminée. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Latence de connexion de synthèse vocale en millisecondes. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse ( |
SpeechServiceResponse_SynthesisFinishLatencyMs |
La synthèse vocale est la latence de tous les octets en millisecondes. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Latence du premier octet de synthèse vocale en millisecondes. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Latence du réseau de synthèse vocale en millisecondes. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Latence du service de synthèse vocale en millisecondes. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Durée de sous-exécution de la synthèse vocale en millisecondes. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. |
SpeechTranslation_ModelKey |
Clé de déchiffrement d’un modèle à utiliser pour la traduction vocale. |
SpeechTranslation_ModelName |
Nom d’un modèle à utiliser pour la traduction vocale. |
Speech_LogFilename |
Nom de fichier pour écrire les journaux. |
Speech_SegmentationSilenceTimeoutMs |
Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final Reconnu. |
Speech_SessionId |
ID de session. |
Méthodes héritées de java.lang.Enum
Méthodes héritées de java.lang.Object
Méthodes
S’applique à
Azure SDK for Java
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour