PropertyId enum

Définit les ID de propriété vocale.

Champs

SpeechServiceConnection_Key = 0

Clé d’abonnement au service Speech Cognitive Services. Si vous utilisez un module de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromSubscription.

SpeechServiceConnection_Endpoint = 1

Le point de terminaison du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromEndpoint. REMARQUE : Ce point de terminaison n’est pas le même que le point de terminaison utilisé pour obtenir un jeton d’accès.

SpeechServiceConnection_Region = 2

Région du service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken.

SpeechServiceAuthorization_Token = 3

Jeton d’autorisation du service Speech Cognitive Services (également appelé jeton d’accès). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken.

SpeechServiceAuthorization_Type = 4

Type d’autorisation Du service Speech Cognitive Services. Actuellement inutilisé.

SpeechServiceConnection_EndpointId = 5

ID de point de terminaison du service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.endpointId. REMARQUE : L’ID de point de terminaison est disponible dans le portail Speech, répertorié sous Détails du point de terminaison.

SpeechServiceConnection_TranslationToLanguages = 6

Liste des langues séparées par des virgules (format BCP-47) utilisées comme langues de traduction cibles. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages.

SpeechServiceConnection_TranslationVoice = 7

Nom de la voix du service de synthèse vocale cognitive Service. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig.voiceName. REMARQUE : Vous trouverez des noms vocaux valides ici.

SpeechServiceConnection_TranslationFeatures = 8

Fonctionnalités de traduction.

SpeechServiceConnection_IntentRegion = 9

Région de service Language Understanding. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt LanguageUnderstandingModel.

SpeechServiceConnection_ProxyHostName = 10

Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. Uniquement pertinent dans les environnements Node.js. Vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez à la place. Ajouté dans la version 1.4.0.

SpeechServiceConnection_ProxyPort = 11

Port du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. Uniquement pertinent dans les environnements Node.js. Vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez à la place. Ajouté dans la version 1.4.0.

SpeechServiceConnection_ProxyUserName = 12

Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Applicable uniquement dans les environnements Node.js. Vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez à la place. Ajouté dans la version 1.4.0.

SpeechServiceConnection_ProxyPassword = 13

Mot de passe du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Applicable uniquement dans les environnements Node.js. Vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez à la place. Ajouté dans la version 1.4.0.

SpeechServiceConnection_RecoMode = 14

Mode de reconnaissance du service Speech De Cognitive Services. Peut être « INTERACTIVE », « CONVERSATION », « DICTÉE ». Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne.

SpeechServiceConnection_RecoLanguage = 15

Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.speechRecognitionLanguage.

Speech_SessionId = 16

ID de session. Cet ID est un identificateur universel unique (alias UUID) représentant une liaison spécifique d’un flux d’entrée audio et la instance de reconnaissance vocale sous-jacente à laquelle il est lié. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SessionEventArgs.sessionId.

SpeechServiceConnection_SynthLanguage = 17

Langue parlée à synthétiser (par exemple, en-US)

SpeechServiceConnection_SynthVoice = 18

Nom de la voix TTS à utiliser pour la synthèse vocale

SpeechServiceConnection_SynthOutputFormat = 19

Chaîne pour spécifier le format audio de sortie TTS

SpeechServiceConnection_AutoDetectSourceLanguages = 20

Liste des langues séparées par des virgules utilisées comme langues sources possibles Ajoutées dans la version 1.13.0

SpeechServiceResponse_RequestDetailedResultTrueFalse = 21

Format de sortie de la réponse du service Speech Cognitive Services demandé (simple ou détaillé). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.outputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22

Niveau de débit de la réponse de Cognitive Services Speech Service demandé. Actuellement inutilisé.

SpeechServiceResponse_JsonResult = 23

Sortie de réponse du service Speech Cognitive Services (au format JSON). Cette propriété n’est disponible que sur les objets de résultat de reconnaissance.

SpeechServiceResponse_JsonErrorDetails = 24

Détails de l’erreur du service Speech Cognitive Services (au format JSON). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt CancellationDetails.errorDetails.

CancellationDetails_Reason = 25

Raison de l’annulation. Actuellement inutilisé.

CancellationDetails_ReasonText = 26

Texte d’annulation. Actuellement inutilisé.

CancellationDetails_ReasonDetailedText = 27

Texte détaillé Annulation. Actuellement inutilisé.

LanguageUnderstandingServiceResponse_JsonResult = 28

Sortie de réponse du service Language Understanding (au format JSON). Disponible via IntentRecognitionResult

SpeechServiceConnection_Url = 29

Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. REMARQUE : Ajouté dans la version 1.7.0.

SpeechServiceConnection_InitialSilenceTimeoutMs = 30

Valeur de délai d’attente de silence initial (en millisecondes) utilisée par le service. Ajouté dans la version 1.7.0

SpeechServiceConnection_EndSilenceTimeoutMs = 31

Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajouté dans la version 1.7.0

Speech_SegmentationSilenceTimeoutMs = 32

Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée orale est considérablement plus rapide ou plus lente que d’habitude et où le comportement de segmentation par défaut génère systématiquement des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale ; cette propriété doit être configurée avec soin et le comportement résultant doit être entièrement validé comme prévu.

Pour plus d’informations sur la configuration du délai d’expiration qui inclut une discussion sur les comportements par défaut, consultez https://aka.ms/csspeech/timeouts.

Ajout dans la version 1.21.0.

SpeechServiceConnection_EnableAudioLogging = 33

Valeur booléenne spécifiant si la journalisation audio est activée dans le service ou non. Les journaux audio et de contenu sont stockés dans un stockage appartenant à Microsoft ou dans votre propre compte de stockage lié à votre abonnement Cognitive Services (Bring Your Own Storage (BYOS) enabled Speech ressource). Les journaux seront supprimés au bout de 30 jours. Ajouté dans la version 1.7.0

SpeechServiceConnection_LanguageIdMode = 34

Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (par défaut) ou « Continu ». Pour plus d’informations, consultez Le document https://aka.ms/speech/lid?pivots=programming-language-javascript d’identification de la langue. Ajouté dans la version 1.25.0

SpeechServiceConnection_RecognitionEndpointVersion = 35

Valeur de chaîne représentant la version de point de terminaison souhaitée à cibler pour la reconnaissance vocale. Ajouté dans la version 1.21.0

SpeechServiceConnection_SpeakerIdMode = 36

/**

  • Valeur de chaîne du scénario/mode de reconnaissance de l’orateur actuel (TextIndependentIdentification, etc.).
  • Ajouté dans la version 1.23.0
SpeechServiceResponse_ProfanityOption = 37

Paramètre de sortie de la réponse du service Speech Cognitive Services demandé. Les valeurs autorisées sont « masqué », « supprimé » et « brut ». Ajout dans la version 1.7.0.

SpeechServiceResponse_PostProcessingOption = 38

Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service. Les valeurs autorisées sont « TrueText ». Ajouté dans la version 1.7.0

SpeechServiceResponse_RequestWordLevelTimestamps = 39

Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajouté dans la version 1.7.0

SpeechServiceResponse_StablePartialResultThreshold = 40

Nombre de fois où un mot doit être dans des résultats partiels à retourner. Ajouté dans la version 1.7.0

SpeechServiceResponse_OutputFormatOption = 41

Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. À usage interne uniquement Ajout dans la version 1.7.0.

SpeechServiceResponse_TranslationRequestStablePartialResult = 42

Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant des mots à la fin. Ajout dans la version 1.7.0.

SpeechServiceResponse_RequestWordBoundary = 43

Valeur booléenne spécifiant s’il faut demander des événements WordBoundary.

SpeechServiceResponse_RequestPunctuationBoundary = 44

Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true.

SpeechServiceResponse_RequestSentenceBoundary = 45

Valeur booléenne spécifiant s’il faut demander une limite de phrase dans les événements WordBoundary. La valeur par défaut est false.

Conversation_ApplicationId = 46

Identificateur utilisé pour se connecter au service principal.

Conversation_DialogType = 47

Type de back-end de dialogue auquel se connecter.

Conversation_Initial_Silence_Timeout = 48

Délai d’expiration du silence pour l’écoute

Conversation_From_Id = 49

De l’ID à ajouter aux activités de reconnaissance vocale.

Conversation_Conversation_Id = 50

ConversationId pour la session.

Conversation_Custom_Voice_Deployment_Ids = 51

Liste séparée par des virgules des ID de déploiement de la voix personnalisée.

Conversation_Speech_Activity_Template = 52

Modèle d’activité Speech, tamponner les propriétés du modèle sur l’activité générée par le service pour la reconnaissance vocale.

Conversation_Request_Bot_Status_Messages = 53

Active ou désactive la réception des messages de tour status comme obtenu sur l’événement turnStatusReceived.

Conversation_Agent_Connection_Id = 54

Spécifie l’ID de connexion à fournir dans le message de configuration de l’agent, par exemple un jeton Direct Line pour l’authentification du canal. Ajout dans la version 1.15.1.

SpeechServiceConnection_Host = 55

L’hôte du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromHost.

ConversationTranslator_Host = 56

Définissez l’hôte pour les appels de service sur la gestion REST de Conversation Translator et les appels websocket.

ConversationTranslator_Name = 57

Définissez éventuellement le nom d’affichage de l’hôte. Utilisé lors de la participation à une conversation.

ConversationTranslator_CorrelationId = 58

Définissez éventuellement une valeur pour l’en-tête de requête X-CorrelationId. Utilisé pour résoudre les erreurs dans les journaux du serveur. Il doit s’agir d’un guid valide.

ConversationTranslator_Token = 59

Définissez le jeton de conversation à envoyer au service speech. Cela permet au service de traiter l’appel du service speech vers le service Conversation Translator pour relayer les reconnaissances. À usage interne uniquement.

PronunciationAssessment_ReferenceText = 60

Texte de référence de l’audio pour l’évaluation de la prononciation. Pour plus d’informations sur les paramètres d’évaluation de la prononciation suivants, consultez https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters pour plus d’informations. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0

PronunciationAssessment_GradingSystem = 61

Système de points pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0

PronunciationAssessment_Granularity = 62

Granularité de l’évaluation de la prononciation (Phonème, Word ou FullText). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0

PronunciationAssessment_EnableMiscue = 63

Définit si activer le calcul incorrect. Quand cette option est activée, les mots prononcés sont comparés au texte de référence et sont marqués comme omission/insertion en fonction de la comparaison. La valeur par défaut est False. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0

PronunciationAssessment_Json = 64

Chaîne json des paramètres d’évaluation de la prononciation Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0

PronunciationAssessment_Params = 65

Paramètres d’évaluation de la prononciation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajouté dans la version 1.15.0

SpeakerRecognition_Api_Version = 66

Version de l’API Reconnaissance de l’orateur à utiliser. Ajouté dans la version 1.18.0

WebWorkerLoadType = 67

Spécifie s’il faut autoriser le chargement de l’URL de données pour le travail web Les valeurs autorisées sont « off » et « on ». La valeur par défaut est « on ». Ajouté dans la version 1.32.0

TalkingAvatarService_WebRTC_SDP = 68

Protocole de description de session WebRTC du service d’avatar de conversation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajouté dans la version 1.33.0