SpeechServiceConnection_Key |
Clé d’abonnement au service Speech Cognitive Services. Si vous utilisez un outil de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromSubscription. |
SpeechServiceConnection_Endpoint |
Point de terminaison (URL) du service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromEndpoint. REMARQUE : ce point de terminaison n’est pas le même que le point de terminaison utilisé pour obtenir un jeton d’accès. |
SpeechServiceConnection_Region |
Région du service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromSubscription, SpeechConfig ::FromEndpoint, SpeechConfig ::FromHost, SpeechConfig ::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
Jeton d’autorisation du service Speech Cognitive Services (également appelé jeton d’accès). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. À la place, utilisez SpeechConfig ::FromAuthorizationToken, SpeechRecognizer ::SetAuthorizationToken, IntentRecognizer ::SetAuthorizationToken, TranslationRecognizer ::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Type d’autorisation du service Speech Cognitive Services. Actuellement inutilisé. |
SpeechServiceConnection_EndpointId |
ID de point de terminaison De reconnaissance vocale personnalisée ou de service vocal personnalisé Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetEndpointId. REMARQUE : l’ID de point de terminaison est disponible dans le portail Speech personnalisé, répertorié sous Détails du point de terminaison. |
SpeechServiceConnection_Host |
L’hôte du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromHost. |
SpeechServiceConnection_ProxyHostName |
Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0. |
SpeechServiceConnection_ProxyPort |
Port du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0. |
SpeechServiceConnection_ProxyUserName |
Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0. |
SpeechServiceConnection_ProxyPassword |
Mot de passe du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0. |
SpeechServiceConnection_Url |
Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. REMARQUE : Ajouté dans la version 1.5.0. |
SpeechServiceConnection_TranslationToLanguages |
Liste des langues séparées par des virgules utilisées comme langues de traduction cibles. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig ::AddTargetLanguage et SpeechTranslationConfig ::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Nom de la voix du service de synthèse vocale cognitive. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig ::SetVoiceName. REMARQUE : Les noms de voix valides sont disponibles ici. |
SpeechServiceConnection_TranslationFeatures |
Fonctionnalités de traduction. À usage interne uniquement. |
SpeechServiceConnection_IntentRegion |
Région de service Language Understanding. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
Mode de reconnaissance du service Speech De Cognitive Services. Peut être « INTERACTIVE », « CONVERSATION », « DICTÉE ». Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. |
SpeechServiceConnection_RecoLanguage |
Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetSpeechRecognitionLanguage. |
Speech_SessionId |
ID de session. Cet ID est un identificateur universel unique (alias UUID) représentant une liaison spécifique d’un flux d’entrée audio et la instance de reconnaissance vocale sous-jacente à laquelle il est lié. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SessionEventArgs ::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Paramètres de requête fournis par les utilisateurs. Ils seront passés au service en tant que paramètres de requête d’URL. Ajout dans la version 1.5.0. |
SpeechServiceConnection_RecoBackend |
Chaîne pour spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, l’option hors connexion n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0. |
SpeechServiceConnection_RecoModelName |
Nom du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Clé de déchiffrement du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0. |
SpeechServiceConnection_RecoModelIniFile |
Chemin d’accès au fichier ini du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0. |
SpeechServiceConnection_SynthLanguage |
Langue parlée à synthétiser (par exemple, en-US) Ajoutée dans la version 1.4.0. |
SpeechServiceConnection_SynthVoice |
Nom de la voix TTS à utiliser pour la synthèse vocale Ajoutée dans la version 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
Chaîne permettant de spécifier le format audio de sortie TTS Ajouté dans la version 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indique si le format audio compressé est utilisé pour la transmission audio de synthèse vocale. Cette propriété affecte uniquement quand SpeechServiceConnection_SynthOutputFormat est défini sur un format pcm. Si cette propriété n’est pas définie et que GStreamer est disponible, le SDK utilise le format compressé pour la transmission audio synthétisée et le décode. Vous pouvez définir cette propriété sur « false » pour utiliser le format pcm brut pour la transmission sur le réseau. Ajouté dans la version 1.16.0. |
SpeechServiceConnection_SynthBackend |
Chaîne pour spécifier le serveur principal TTS ; les options valides sont en ligne et hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::FromPath ou EmbeddedSpeechConfig ::FromPaths pour définir le serveur principal de synthèse sur hors connexion. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
Chemin d’accès au fichier de données pour le moteur de synthèse hors connexion ; Valide uniquement lorsque le serveur principal de synthèse est hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::FromPath ou EmbeddedSpeechConfig ::FromPaths. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::SetSpeechSynthesisVoice et EmbeddedSpeechConfig ::GetSpeechSynthesisVoiceName. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Clé de déchiffrement de la voix à utiliser pour la synthèse vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::SetSpeechSynthesisVoice. Ajouté dans la version 1.19.0. |
SpeechServiceConnection_VoicesListEndpoint |
Point de terminaison (URL) de l’API de liste de voix du service Speech Cognitive Services. Dans des circonstances normales, vous n’avez pas besoin de spécifier cette propriété, car le SDK la construit en fonction de la région/de l’hôte/du point de terminaison de SpeechConfig. Ajouté dans la version 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Valeur de délai d’expiration du silence initial (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Valeur booléenne spécifiant si la journalisation audio est activée ou non dans le service. Les journaux d’activité audio et de contenu sont stockés soit dans un stockage appartenant à Microsoft, soit dans votre propre compte de stockage lié à votre abonnement Cognitive Services (ressource Speech byOS (Bring Your Own Storage) activée). Ajouté dans la version 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (valeur par défaut) ou « Continu ». Consultez le document d’identification de la langue . Ajouté dans la version 1.25.0. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Détection automatique des langues sources ajoutées dans la version 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Le résultat de la détection automatique de la langue source a été ajouté dans la version 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Format de sortie de réponse du service Speech Cognitive Services demandé (simple ou détaillé). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Niveau de grossièreté de la réponse du service Speech de Cognitive Services demandé. Actuellement inutilisé. |
SpeechServiceResponse_ProfanityOption |
Paramètre de sortie de réponse du service Speech de Cognitive Services demandé. Les valeurs autorisées sont « masked », « removed » et « raw ». Ajouté dans la version 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service. Les valeurs autorisées sont « TrueText ». Ajouté dans la version 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajouté dans la version 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
Nombre de fois où un mot doit être dans des résultats partiels à retourner. Ajouté dans la version 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. À usage interne uniquement Ajouté dans la version 1.5.0. |
SpeechServiceResponse_RequestSnr |
Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal/bruit) dans le résultat de la réponse. Ajout dans la version 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. Ajouté dans la version 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Valeur booléenne spécifiant s’il faut demander des événements WordBoundary. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Valeur booléenne spécifiant s’il faut demander la limite de phrase dans les événements WordBoundary. La valeur par défaut est false. Ajouté dans la version 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse (par exemple, limite de mot, visème, etc.) avec la lecture audio. Cela ne prend effet que lorsque l’audio est lu via le KIT de développement logiciel (SDK). La valeur par défaut est true. Si la valeur est false, le Kit de développement logiciel (SDK) déclenche les événements car ils proviennent du service, qui peut ne pas être synchronisé avec la lecture audio. Ajout dans la version 1.31.0. |
SpeechServiceResponse_JsonResult |
Sortie de réponse du service Speech Cognitive Services (au format JSON). Cette propriété est disponible uniquement sur les objets de résultat de reconnaissance. |
SpeechServiceResponse_JsonErrorDetails |
Détails de l’erreur du service Speech Cognitive Services (au format JSON). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt CancellationDetails ::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Latence de reconnaissance en millisecondes. En lecture seule, disponible sur les résultats finaux de la parole,de la traduction/de l’intention. Cela mesure la latence entre le moment où une entrée audio est reçue par le SDK et le moment où le résultat final est reçu du service. Le Kit de développement logiciel (SDK) calcule la différence de temps entre le dernier fragment audio de l’entrée audio qui contribue au résultat final et l’heure à laquelle le résultat final est reçu du service speech. Ajouté dans la version 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
Back-end de reconnaissance. En lecture seule, disponible sur les résultats de la reconnaissance vocale. Cela indique si la reconnaissance cloud (en ligne) ou incorporée (hors connexion) a été utilisée pour produire le résultat. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Latence du premier octet de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où le premier audio octet est disponible. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
La synthèse vocale est la latence de tous les octets en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où l’ensemble de l’audio est synthétisé. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Durée de sous-exécution de la synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats dans les événements SynthesisCompleted. Cela mesure le temps total de sous-exécution entre PropertyId ::AudioConfig_PlaybackBufferLengthInMs est rempli jusqu’à la fin de la synthèse. Ajouté dans la version 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Latence de connexion de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où la connexion HTTP/WebSocket est établie. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Latence du réseau de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps d’aller-retour réseau. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Latence du service de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps de traitement du service pour synthétiser le premier octet de l’audio. Ajouté dans la version 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Indique le back-end par lequel la synthèse est terminée. En lecture seule, disponible sur les résultats de synthèse vocale, à l’exception du résultat dans l’événement SynthesisStarted Ajouté dans la version 1.17.0. |
CancellationDetails_Reason |
Motif de l’annulation. Actuellement inutilisé. |
CancellationDetails_ReasonText |
Texte d’annulation. Actuellement inutilisé. |
CancellationDetails_ReasonDetailedText |
Texte détaillé de l’annulation. Actuellement inutilisé. |
LanguageUnderstandingServiceResponse_JsonResult |
Sortie de réponse du service Language Understanding (au format JSON). Disponible via IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Nom de l’appareil pour la capture audio. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig ::FromMicrophoneInput. REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
Nombre de canaux pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0. |
AudioConfig_SampleRateForCapture |
Taux d’échantillonnage (en Hz) pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
Nombre de bits de chaque échantillon pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0. |
AudioConfig_AudioSource |
Source audio. Les valeurs autorisées sont « Microphones », « File » et « Stream ». Ajouté dans la version 1.3.0. |
AudioConfig_DeviceNameForRender |
Nom de l’appareil pour le rendu audio. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig ::FromSpeakerOutput. Ajouté dans la version 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
Longueur de la mémoire tampon de lecture en millisecondes, la valeur par défaut est de 50 millisecondes. |
AudioConfig_AudioProcessingOptions |
Options de traitement audio au format JSON. |
Speech_LogFilename |
Nom de fichier pour écrire les journaux. Ajouté dans la version 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final Reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée orale est beaucoup plus rapide ou plus lente que d’habitude et où le comportement de segmentation par défaut génère systématiquement des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale ; cette propriété doit être configurée avec soin et le comportement qui en résulte doit être entièrement validé comme prévu. |
Conversation_ApplicationId |
Identificateur utilisé pour se connecter au service principal. Ajouté dans la version 1.5.0. |
Conversation_DialogType |
Type de back-end de dialogue auquel se connecter. Ajouté dans la version 1.7.0. |
Conversation_Initial_Silence_Timeout |
Délai d’expiration du silence pour l’écoute Ajouté dans la version 1.5.0. |
Conversation_From_Id |
À partir de l’ID à utiliser sur les activités de reconnaissance vocale Ajouté dans la version 1.5.0. |
Conversation_Conversation_Id |
ConversationId pour la session. Ajouté dans la version 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Liste séparée par des virgules des ID de déploiement de la voix personnalisée. Ajouté dans la version 1.8.0. |
Conversation_Speech_Activity_Template |
Modèle d’activité Speech, propriétés d’empreinte dans le modèle sur l’activité générée par le service de reconnaissance vocale. Ajouté dans la version 1.10.0. |
Conversation_ParticipantId |
Votre identificateur de participant dans la conversation actuelle. Ajouté dans la version 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. L’horodatage est une valeur 64 bits avec une résolution de 90 kHz. Il est identique à l’horodatage de présentation dans un flux de transport MPEG. Voir https://en.wikipedia.org/wiki/Presentation_timestamp Ajout dans la version 1.5.0. |
DataBuffer_UserId |
ID utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. Ajouté dans la version 1.5.0. |
PronunciationAssessment_ReferenceText |
Texte de référence de l’audio pour l’évaluation de la prononciation. Pour cela et les paramètres d’évaluation de prononciation suivants, consultez le tableau Paramètres d’évaluation de la prononciation. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create ou PrononciationAssessmentConfig ::SetReferenceText. Ajouté dans la version 1.14.0. |
PronunciationAssessment_GradingSystem |
Système de points pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0. |
PronunciationAssessment_Granularity |
Granularité de l’évaluation de la prononciation (Phonème, Word ou FullText). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0. |
PronunciationAssessment_EnableMiscue |
Définit si activer le calcul incorrect. Quand cette option est activée, les mots prononcés sont comparés au texte de référence et sont marqués comme omission/insertion en fonction de la comparaison. La valeur par défaut est False. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
Alphabet du phonème d’évaluation de la prononciation. Les valeurs valides sont « SAPI » (par défaut) et « IPA » Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::SetPhonemeAlphabet. Ajouté dans la version 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
Évaluation de la prononciation nbest phonème count. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::SetNBestPhonemeCount. Ajouté dans la version 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Indique s’il faut activer l’évaluation de la prosodie. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::EnableProsodyAssessment. Ajouté dans la version 1.33.0. |
PronunciationAssessment_Json |
Chaîne json des paramètres d’évaluation de prononciation Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0. |
PronunciationAssessment_Params |
Paramètres d’évaluation de la prononciation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajouté dans la version 1.14.0. |
PronunciationAssessment_ContentTopic |
Rubrique de contenu de l’évaluation de la prononciation. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::EnableContentAssessmentWithTopic. Ajouté dans la version 1.33.0. |
SpeakerRecognition_Api_Version |
Version de l’API back-end reconnaissance de l’orateur. Cette propriété est ajoutée pour permettre le test et l’utilisation des versions précédentes des API reconnaissance de l’orateur, le cas échéant. Ajout dans la version 1.18.0. |
SpeechTranslation_ModelName |
Nom d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. |
SpeechTranslation_ModelKey |
Clé de déchiffrement d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. |
KeywordRecognition_ModelName |
Nom d’un modèle à utiliser pour la reconnaissance mot clé. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. |
KeywordRecognition_ModelKey |
Clé de déchiffrement d’un modèle à utiliser pour la reconnaissance mot clé. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. |
EmbeddedSpeech_EnablePerformanceMetrics |
Activez la collecte de métriques de performances vocales incorporées qui peuvent être utilisées pour évaluer la capacité d’un appareil à utiliser la voix incorporée. Les données collectées sont incluses dans les résultats de scénarios spécifiques tels que la reconnaissance vocale. Le paramètre par défaut est « false ». Notez que les métriques peuvent ne pas être disponibles dans tous les scénarios de reconnaissance vocale incorporée. |