Partager via


PropertyId Énumération

Définition

Répertorie les ID de propriété vocale.

public enum PropertyId
type PropertyId = 
Public Enum PropertyId
Héritage
PropertyId

Champs

AudioConfig_DeviceNameForRender 8005

Nom de l’appareil pour le rendu audio. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromSpeakerOutput(String). Ajouté dans la version 1.17.0

AudioConfig_PlaybackBufferLengthInMs 8006

Longueur de la mémoire tampon de lecture en millisecondes, la valeur par défaut est de 50 millisecondes. Ajouté dans la version 1.17.0

CancellationDetails_Reason 6000

Inutilisé. Motif de l’annulation.

CancellationDetails_ReasonDetailedText 6002

Inutilisé. Texte détaillé de l’annulation.

CancellationDetails_ReasonText 6001

Inutilisé. Texte d’annulation.

Conversation_ApplicationId 10000

Identificateur utilisé pour se connecter au service principal. Ajouté dans la version 1.5.0

Conversation_Connection_Id 10009

Informations d’identification supplémentaires, telles qu’un jeton Direct Line, utilisées pour l’authentification auprès du service principal. Ajouté dans la version 1.16.0

Conversation_Conversation_Id 10004

ConversationId pour la session. Ajouté dans la version 1.8.0

Conversation_Custom_Voice_Deployment_Ids 10005

Liste séparée par des virgules des ID de déploiement de la voix personnalisée. Ajouté dans la version 1.8.0

Conversation_DialogType 10001

Type de back-end de dialogue auquel se connecter. Ajouté dans la version 1.7.0

Conversation_From_Id 10003

Identificateur from à ajouter aux activités de reconnaissance vocale. Ajouté dans la version 1.5.0

Conversation_Initial_Silence_Timeout 10002

Délai d’expiration du silence pour l’écoute. Ajouté dans la version 1.5.0

Conversation_ParticipantId 10007

Obtient votre identificateur dans la conversation. Ajouté dans la version 1.13.0

Conversation_Request_Bot_Status_Messages 10008

Valeur booléenne qui spécifie si le client doit recevoir ou non des messages turn status et générer les événements TurnStatusReceived correspondants. La valeur par défaut est true. Ajouté dans la version 1.15.0

Conversation_Speech_Activity_Template 10006

Modèle d’activité Speech, tamponner les propriétés du modèle sur l’activité générée par le service de reconnaissance vocale. Voir SpeechActivityTemplate Ajout dans la version 1.10.0

ConversationTranscribingService_DataBufferTimeStamp 11001

Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push. L’horodatage est une valeur 64 bits avec une résolution de 90 kHz. Identique à l’horodatage de présentation dans un flux de transport MPEG. Consultez https://en.wikipedia.org/wiki/Presentation_timestamp. Ajouté dans la version 1.5.0

ConversationTranscribingService_DataBufferUserId 11002

Identificateur d’utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push. Ajouté dans la version 1.5.0

LanguageUnderstandingServiceResponse_JsonResult 7000

Sortie de réponse du service Language Understanding (au format JSON). Disponible via Properties.

PronunciationAssessment_EnableMiscue 12005

Indique un état de calcul incorrect. Lorsque cette option est activée, les mots prononcés sont comparés au texte de référence et sont marqués avec omission/insertion en fonction de la comparaison. False est le paramètre par défaut. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0

PronunciationAssessment_GradingSystem 12002

Système de points pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0

PronunciationAssessment_Granularity 12003

Granularité de l’évaluation de la prononciation (Phonème, Word ou FullText). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0

PronunciationAssessment_Json 12009

Chaîne JSON des paramètres d’évaluation de prononciation. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0

PronunciationAssessment_NBestPhonemeCount 12007

Évaluation de la prononciation nbest phonème count. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt NBestPhonemeCount. Ajouté dans la version 1.20.0

PronunciationAssessment_Params 12010

Paramètres d’évaluation de la prononciation. Cette propriété est en lecture seule. Ajouté dans la version 1.14.0

PronunciationAssessment_PhonemeAlphabet 12006

Alphabet du phonème d’évaluation de la prononciation. Les valeurs valides sont « SAPI » (par défaut) et « IPA » Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PhonemeAlphabet. Ajouté dans la version 1.20.0

PronunciationAssessment_ReferenceText 12001

Texte de référence de l’audio pour l’évaluation de la prononciation. Pour cela et les paramètres d’évaluation de prononciation suivants, consultez Paramètres d’évaluation de prononciation pour plus d’informations. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.14.0

SpeakerRecognition_Api_Version 13001

Version de l’API de reconnaissance de l’orateur. Ajouté dans la version 1.18.0

Speech_LogFilename 9001

Nom de fichier pour écrire les journaux. Ajouté dans la version 1.4.0

Speech_SegmentationSilenceTimeoutMs 9002

Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final Reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée orale est beaucoup plus rapide ou plus lente que d’habitude et où le comportement de segmentation par défaut génère systématiquement des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale; cette propriété doit être configurée avec soin et le comportement qui en résulte doit être entièrement validé comme prévu.

Pour plus d’informations sur la configuration du délai d’expiration qui inclut la discussion des comportements par défaut, consultez https://aka.ms/csspeech/timeouts.

Speech_SessionId 3002

ID de session. Cet ID est un identificateur universel unique (également appelé UUID) qui représente une liaison spécifique d’un flux d’entrée audio et de l’instance de reconnaissance vocale sous-jacente à laquelle il est lié. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SessionId à la place.

SpeechServiceAuthorization_Token 1003

Jeton d’autorisation du service Speech (également appelé jeton d’accès). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. À la place, utilisez FromAuthorizationToken(String, String), AuthorizationToken, AuthorizationToken, AuthorizationToken.

SpeechServiceAuthorization_Type 1004

Inutilisé. Type d’autorisation du service Speech.

SpeechServiceConnection_AutoDetectSourceLanguageResult 3301

Résultat de la détection automatique de la langue source. Ajouté dans la version 1.9.0

SpeechServiceConnection_AutoDetectSourceLanguages 3300

Détection automatique des langues sources. Ajouté dans la version 1.9.0

SpeechServiceConnection_EnableAudioLogging 3202

Valeur booléenne spécifiant si la journalisation audio est activée ou non dans le service. Les journaux d’activité audio et de contenu sont stockés soit dans un stockage appartenant à Microsoft, soit dans votre propre compte de stockage lié à votre abonnement Cognitive Services (ressource Speech byOS (Bring Your Own Storage) activée). Ajouté dans la version 1.5.0.

SpeechServiceConnection_Endpoint 1001

Le point de terminaison du service Speech, une URL. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromEndpoint(Uri, String), ou FromEndpoint(Uri). REMARQUE : Ce point de terminaison n’est pas le même que le point de terminaison utilisé pour obtenir un jeton d’accès.

SpeechServiceConnection_EndpointId 1005

ID de point de terminaison Custom Speech ou Custom Voice Service. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromEndpoint(Uri, String), ou FromEndpoint(Uri). REMARQUE : L’ID de point de terminaison est disponible dans le portail Custom Speech, répertorié sous Détails du point de terminaison.

SpeechServiceConnection_EndSilenceTimeoutMs 3201

Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0

SpeechServiceConnection_Host 1006

Hôte du service Speech (URL). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromHost(Uri, String), ou FromHost(Uri).

SpeechServiceConnection_InitialSilenceTimeoutMs 3200

Valeur de délai d’expiration du silence initial (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0

SpeechServiceConnection_IntentRegion 2003

Région de service Language Understanding. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez LanguageUnderstandingModel à la place.

SpeechServiceConnection_Key 1000

Clé d’abonnement utilisée avec les points de terminaison de service Speech. Si vous utilisez un module de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromSubscription(String, String).

SpeechServiceConnection_LanguageIdMode 3205

Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (valeur par défaut) ou « Continu ». Consultez le document d’identification de la langue . Ajouté dans la version 1.25.0

SpeechServiceConnection_ProxyHostName 1100

Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SetProxy(String, Int32, String, String) à la place. Ajouté dans la version 1.1.0

SpeechServiceConnection_ProxyPassword 1103

Mot de passe du serveur proxy utilisé pour se connecter au service Speech. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SetProxy(String, Int32, String, String) à la place. Ajouté dans la version 1.1.0

SpeechServiceConnection_ProxyPort 1101

Port du serveur proxy utilisé pour se connecter au service Speech. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SetProxy(String, Int32, String, String) à la place. Ajouté dans la version 1.1.0

SpeechServiceConnection_ProxyUserName 1102

Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez SetProxy(String, Int32, String, String) à la place. Ajouté dans la version 1.1.0

SpeechServiceConnection_RecoBackend 3004

Chaîne à spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, l’option hors connexion n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0

SpeechServiceConnection_RecoLanguage 3001

Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechRecognitionLanguage.

SpeechServiceConnection_RecoMode 3000

Mode de reconnaissance du service Speech. Peut être INTERACTIF, CONVERSATION, DICTÉE. Cette propriété est en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne.

SpeechServiceConnection_RecoModelKey 3006

Clé de déchiffrement du modèle à utiliser pour la reconnaissance vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0

SpeechServiceConnection_RecoModelName 3005

Nom du modèle à utiliser pour la reconnaissance vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajouté dans la version 1.19.0

SpeechServiceConnection_Region 1002

Région du service Speech associée à la clé d’abonnement. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromSubscription(String, String), , FromEndpoint(Uri, String)FromEndpoint(Uri), FromHost(Uri, String), , FromHost(Uri), FromAuthorizationToken(String, String).

SpeechServiceConnection_SynthBackend 3110

Chaîne pour spécifier le serveur principal TTS ; les options valides sont en ligne et hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromPath(String) ou FromPaths(String[]). pour définir le serveur principal de synthèse sur hors connexion. Ajouté dans la version 1.19.0

SpeechServiceConnection_SynthEnableCompressedAudioTransmission 3103

Indique s’il faut utiliser le format audio compressé pour la transmission audio de synthèse vocale. Cette propriété n’est importante que lorsque SpeechServiceConnection_SynthOutputFormat est défini sur un format pcm. Si cette propriété n’est pas définie sur true et que GStreamer est disponible, le SDK utilise le format compressé pour la transmission audio synthétisée et le décode. Vous pouvez définir cette propriété sur false pour utiliser le format pcm brut pour la transmission sur le réseau. Ajouté dans la version 1.16.0

SpeechServiceConnection_SynthLanguage 3100

Langue parlée à synthétiser (par exemple, en-US). Ajouté dans la version 1.4.0

SpeechServiceConnection_SynthModelKey 3114

Clé de déchiffrement du modèle à utiliser pour la synthèse vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt SetSpeechSynthesisVoice(String, String). Ajouté dans la version 1.19.0

SpeechServiceConnection_SynthOfflineDataPath 3112

Chemin d’accès au fichier de données pour le moteur de synthèse hors connexion ; Valide uniquement lorsque le serveur principal de synthèse est hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt FromPath(String) ou FromPaths(String[]). Ajouté dans la version 1.19.0

SpeechServiceConnection_SynthOfflineVoice 3113

Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt SetSpeechSynthesisVoice(String, String). Ajouté dans la version 1.19.0

SpeechServiceConnection_SynthOutputFormat 3102

Chaîne permettant de spécifier le format audio de sortie de synthèse vocale (par exemple, riff-16khz-16bit-mono-pcm) ajouté à la version 1.4.0

SpeechServiceConnection_SynthVoice 3101

Nom de la voix à utiliser pour la synthèse vocale. Ajouté dans la version 1.4.0

SpeechServiceConnection_TranslationFeatures 2002

Fonctionnalités de traduction. À usage interne uniquement.

SpeechServiceConnection_TranslationToLanguages 2000

Liste des langues séparées par des virgules (au format BCP-47) utilisées comme langues de traduction cibles. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt AddTargetLanguage(String) et la collection en lecture seule TargetLanguages .

SpeechServiceConnection_TranslationVoice 2001

Nom de la voix utilisée pour la synthèse vocale. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez VoiceName à la place. Recherchez des noms vocaux valides ici.

SpeechServiceConnection_Url 1104

Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est en lecture seule. Le Kit de développement logiciel (SDK) utilise cette valeur en interne. Ajouté dans la version 1.5.0

SpeechServiceConnection_VoicesListEndpoint 3130

Point de terminaison (URL) de l’API de liste de voix du service Speech Cognitive Services. Dans des circonstances normales, vous n’avez pas besoin de spécifier cette propriété, car le SDK la construit en fonction de la région/de l’hôte/du point de terminaison de SpeechConfig. Ajouté dans la version 1.16.0

SpeechServiceResponse_JsonErrorDetails 5001

Détails de l’erreur du service Speech (au format JSON). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez ErrorDetails à la place.

SpeechServiceResponse_JsonResult 5000

Sortie de réponse du service Speech (au format JSON). Cette propriété est disponible uniquement sur les objets de résultat de reconnaissance.

SpeechServiceResponse_OutputFormatOption 4006

Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. À usage interne uniquement Ajouté dans la version 1.5.0

SpeechServiceResponse_PostProcessingOption 4003

Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service. Valeur autorisée : TrueText. Ajouté dans la version 1.5.0

SpeechServiceResponse_ProfanityOption 4002

Paramètre de sortie de réponse du service Speech demandé. Les valeurs autorisées sont masquées, supprimées et brutes. Ajouté dans la version 1.5.0

SpeechServiceResponse_RecognitionBackend 5003

Back-end de reconnaissance. En lecture seule, disponible sur les résultats de la reconnaissance vocale. Cela indique si la reconnaissance cloud (en ligne) ou incorporée (hors connexion) a été utilisée pour produire le résultat.

SpeechServiceResponse_RecognitionLatencyMs 5002

Latence de reconnaissance en millisecondes. En lecture seule, disponible sur les résultats finaux de la parole,de la traduction/de l’intention. Cela mesure la latence entre le moment où une entrée audio est reçue par le SDK et le moment où le résultat final est reçu du service. Le Kit de développement logiciel (SDK) calcule la différence de temps entre le dernier fragment audio de l’entrée audio qui contribue au résultat final et l’heure à laquelle le résultat final est reçu du service speech. Ajouté dans la version 1.3.0

SpeechServiceResponse_RequestDetailedResultTrueFalse 4000

Format de sortie de réponse du service Speech demandé (OutputFormat.Simple ou OutputFormat.Detailed). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt OutputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse 4001

Inutilisé. Niveau de grossièreté de la réponse du service Speech demandé.

SpeechServiceResponse_RequestPunctuationBoundary 4201

Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true. Ajouté dans la version 1.21.0.

SpeechServiceResponse_RequestSentenceBoundary 4202

Valeur booléenne spécifiant s’il faut demander la limite de phrase dans les événements WordBoundary. La valeur par défaut est false. Ajouté dans la version 1.21.0.

SpeechServiceResponse_RequestSnr 4007

Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal/bruit) dans le résultat de la réponse. Ajouté dans la version 1.18.0

SpeechServiceResponse_RequestWordBoundary 4200

Valeur booléenne spécifiant s’il faut demander des événements WordBoundary. Ajouté dans la version 1.21.0.

SpeechServiceResponse_RequestWordLevelTimestamps 4004

Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajouté dans la version 1.5.0

SpeechServiceResponse_StablePartialResultThreshold 4005

Nombre de fois où un mot doit être dans des résultats partiels à retourner. Ajouté dans la version 1.5.0

SpeechServiceResponse_SynthesisBackend 5020

Indique le back-end par lequel la synthèse est terminée. En lecture seule, disponible sur les résultats de synthèse vocale, à l’exception du résultat dans l’événement SynthesisStarted. Ajouté dans la version 1.19.0.

SpeechServiceResponse_SynthesisConnectionLatencyMs 5013

Latence de connexion de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où la connexion HTTP/WebSocket est établie. Ajouté dans la version 1.26.0.

SpeechServiceResponse_SynthesisEventsSyncToAudio 4210

Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse (par exemple, limite de mot, visème, etc.) avec la lecture audio. Cela ne prend effet que lorsque l’audio est lu via le KIT de développement logiciel (SDK). La valeur par défaut est true. Si la valeur est false, le Kit de développement logiciel (SDK) déclenche les événements car ils proviennent du service, qui peut ne pas être synchronisé avec la lecture audio. Ajout dans la version 1.31.0.

SpeechServiceResponse_SynthesisFinishLatencyMs 5011

La synthèse vocale est la latence de tous les octets en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où l’ensemble de l’audio est synthétisé. Ajouté dans la version 1.17.0.

SpeechServiceResponse_SynthesisFirstByteLatencyMs 5010

Latence du premier octet de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où le premier audio octet est disponible. Ajouté dans la version 1.17.0.

SpeechServiceResponse_SynthesisNetworkLatencyMs 5014

Latence du réseau de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps d’aller-retour réseau. Ajouté dans la version 1.26.0.

SpeechServiceResponse_SynthesisServiceLatencyMs 5015

Latence du service de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps de traitement du service pour synthétiser le premier octet de l’audio. Ajouté dans la version 1.26.0.

SpeechServiceResponse_SynthesisUnderrunTimeMs 5012

Durée de sous-exécution de la synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats dans les événements SynthesisCompleted. Cela mesure le temps total de sous-exécution entre AudioConfig_PlaybackBufferLengthInMs est rempli et la synthèse terminée. Ajouté dans la version 1.17.0.

SpeechServiceResponse_TranslationRequestStablePartialResult 4100

Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. Ajouté dans la version 1.5.0

SpeechTranslation_ModelKey 13101

Clé de déchiffrement d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.

SpeechTranslation_ModelName 13100

Nom d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.

S’applique à