Espace de noms Microsoft::CognitiveServices::Speech

Résumé

Membres Descriptions
enum PropertyId Définit les ID de propriété vocale. Modification dans la version 1.4.0.
enum OutputFormat Format de sortie.
enum ProfanityOption Supprime les blasphèmes (jurons) ou remplace les lettres de mots profanes par des étoiles. Ajouté dans la version 1.5.0.
enum ResultReason Spécifie les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.
enum CancellationReason Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.
enum CancellationErrorCode Définit le code d’erreur au cas où CancellationReason est Error. Ajout dans la version 1.1.0.
enum NoMatchReason Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.
enum ActivityJSONType Définit les types possibles pour une valeur json d’activité. Ajouté dans la version 1.5.0.
enum SpeechSynthesisOutputFormat Définit les formats audio possibles de sortie de synthèse vocale. Mise à jour dans la version 1.19.0.
enum StreamStatus Définit la status possible du flux de données audio. Ajouté dans la version 1.4.0.
enum ServicePropertyChannel Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.5.0.
enum VoiceProfileType Définit les types de profils vocaux.
enum RecognitionFactorScope Définit l’étendue à laquelle un facteur de reconnaissance est appliqué.
enum PrononciationAssessmentGradingSystem Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajouté dans la version 1.14.0.
enum PrononciationAssessmentGranularity Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème. Ajouté dans la version 1.14.0.
enum SynthesisVoiceType Définit le type de voix de synthèse ajoutées dans la version 1.16.0.
enum SynthesisVoiceGender Définit le sexe des voix de synthèse ajoutées dans la version 1.17.0.
enum SpeechSynthesisBoundaryType Définit le type de limite de l’événement de limite de synthèse vocale ajouté dans la version 1.21.0.
classe AsyncRecognizer Classe de base abstraite AsyncRecognizer.
classe AudioDataStream Représente le flux de données audio utilisé pour le fonctionnement des données audio en tant que flux. Ajouté dans la version 1.4.0.
classe AutoDetectSourceLanguageConfig Classe qui définit la configuration de la source de détection automatique Mise à jour dans la version 1.13.0.
classe AutoDetectSourceLanguageResult Contient le résultat de la langue source détectée automatiquement Ajouté dans la version 1.8.0.
classe BaseAsyncRecognizer Classe BaseAsyncRecognizer.
classe CancellationDetails Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.
class ClassLanguageModel Représente une liste de grammaires pour les scénarios de grammaire dynamique. Ajouté dans la version 1.7.0.
classe Connection Connection est une classe proxy permettant de gérer la connexion au service speech du module Recognizer spécifié. Par défaut, un module Recognizer gère de manière autonome la connexion au service si nécessaire. La classe Connection fournit des méthodes supplémentaires permettant aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner aux modifications de status de connexion. L’utilisation de Connection est facultative. Il est destiné aux scénarios dans lesquels un réglage précis du comportement de l’application en fonction des status de connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler Open() pour lancer manuellement une connexion de service avant de commencer la reconnaissance sur le module de reconnaissance associé à cette connexion. Après avoir démarré une reconnaissance, l’appel de Open() ou Close() peut échouer. Cela n’aura pas d’impact sur le module de reconnaissance ou la reconnaissance en cours. La connexion peut tomber pour diverses raisons. Le module de reconnaissance tente toujours de rétablir la connexion en fonction des besoins pour garantir les opérations en cours. Dans tous ces cas, les événements Connected/Disconnected indiquent la modification de la status de connexion. Mise à jour dans la version 1.17.0.
classe ConnectionEventArgs Fournit des données pour l’événement ConnectionEvent. Ajout dans la version 1.2.0.
classe ConnectionMessage ConnectionMessage représente les messages spécifiques à l’implémentation envoyés et reçus du service speech. Ces messages sont fournis à des fins de débogage et ne doivent pas être utilisés pour des cas d’usage de production avec le service Speech d’Azure Cognitive Services. Les messages envoyés et reçus par le service Speech sont susceptibles d’être modifiés sans préavis. Cela inclut le contenu des messages, les en-têtes, les charges utiles, le classement, etc. Ajouté dans la version 1.10.0.
classe ConnectionMessageEventArgs Fournit des données pour l’événement ConnectionMessageEvent.
classe EmbeddedSpeechConfig Classe qui définit la configuration vocale incorporée (hors connexion).
classe EventArgs Classe de base pour les arguments d’événement.
classe EventSignal Les clients peuvent se connecter au signal d’événement pour recevoir des événements, ou se déconnecter du signal d’événement pour arrêter de recevoir des événements.
classe EventSignalBase Les clients peuvent se connecter au signal d’événement pour recevoir des événements, ou se déconnecter du signal d’événement pour arrêter de recevoir des événements.
grammaire de classe Représente la grammaire de la classe de base pour la personnalisation de la reconnaissance vocale. Ajouté dans la version 1.5.0.
classe GrammarList Représente une liste de grammaires pour les scénarios de grammaire dynamique. Ajouté dans la version 1.7.0.
classe GrammarPhrase Représente une expression qui peut être prononcée par l’utilisateur. Ajouté dans la version 1.5.0.
classe HybridSpeechConfig Classe qui définit des configurations hybrides (cloud et incorporées) pour la reconnaissance vocale ou la synthèse vocale.
classe KeywordRecognitionEventArgs Classe pour les événements emmités par le KeywordRecognizer.
class KeywordRecognitionModel Représente mot clé modèle de reconnaissance utilisé avec les méthodes StartKeywordRecognitionAsync.
class KeywordRecognitionResult Classe qui définit les résultats émis par le KeywordRecognizer.
classe KeywordRecognizer Type de module de reconnaissance spécialisé pour gérer uniquement mot clé activation.
classe NoMatchDetails Contient des informations détaillées sur les résultats de la reconnaissance NoMatch.
class PhraseListGrammar Représente une grammaire de liste d’expressions pour les scénarios de grammaire dynamique. Ajouté dans la version 1.5.0.
classe PrononciationAssessmentConfig Classe qui définit la configuration de l’évaluation de la prononciation Ajoutée dans 1.14.0.
classe PrononciationAssessmentResult Classe pour les résultats de l’évaluation de la prononciation.
class PropertyCollection Classe pour récupérer ou définir une valeur de propriété à partir d’une collection de propriétés.
classe RecognitionEventArgs Fournit des données pour l’événement RecognitionEvent.
classe RecognitionResult Contient des informations détaillées sur le résultat d’une opération de reconnaissance.
class Recognizer Classe de base recognizer.
classe SessionEventArgs Classe de base pour les arguments d’événement de session.
classe SmartHandle Classe de handle intelligent.
class SourceLanguageConfig Classe qui définit la configuration de la langue source, ajoutée dans la version 1.8.0.
class SourceLanguageRecognizer Classe pour les modules de reconnaissance de langue source. Vous pouvez utiliser cette classe pour la détection de langue autonome. Ajouté dans la version 1.17.0.
classe SpeechConfig Classe qui définit des configurations pour la reconnaissance vocale/intention, ou la synthèse vocale.
classe SpeechRecognitionCanceledEventArgs Classe pour les arguments d’événement annulés de reconnaissance vocale.
classe SpeechRecognitionEventArgs Classe pour les arguments d’événement de reconnaissance vocale.
classe SpeechRecognitionModel Informations sur le modèle de reconnaissance vocale.
classe SpeechRecognitionResult Classe de base pour les résultats de la reconnaissance vocale.
classe SpeechRecognizer Classe pour les modules de reconnaissance vocale.
classe SpeechSynthesisBookmarkEventArgs Classe pour les arguments d’événement de signet de synthèse vocale. Ajouté dans la version 1.16.0.
classe SpeechSynthesisCancellationDetails Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. Ajouté dans la version 1.4.0.
classe SpeechSynthesisEventArgs Classe pour les arguments d’événement de synthèse vocale. Ajouté dans la version 1.4.0.
classe SpeechSynthesisResult Contient des informations sur le résultat de la synthèse vocale. Ajouté dans la version 1.4.0.
classe SpeechSynthesisVisemeEventArgs Classe pour les arguments d’événement de visème de synthèse vocale. Ajouté dans la version 1.16.0.
classe SpeechSynthesisWordBoundaryEventArgs Classe pour les arguments d’événement de limite de mot de synthèse vocale. Ajouté dans la version 1.7.0.
classe SpeechSynthesizer Classe pour le synthétiseur vocal. Mise à jour dans la version 1.14.0.
classe SpeechTranslationModel Informations sur le modèle de traduction vocale.
classe SynthesisVoicesResult Contient des informations sur le résultat de la liste des voix des synthétiseurs vocaux. Ajouté dans la version 1.16.0.
classe VoiceInfo Contient des informations sur les informations vocales de synthèse mises à jour dans la version 1.17.0.

Membres

enum PropertyId

Valeurs Descriptions
SpeechServiceConnection_Key Clé d’abonnement au service Speech Cognitive Services. Si vous utilisez un module de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::FromSubscription.
SpeechServiceConnection_Endpoint Le point de terminaison du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::FromEndpoint. REMARQUE : Ce point de terminaison n’est pas le même que le point de terminaison utilisé pour obtenir un jeton d’accès.
SpeechServiceConnection_Region Région du service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken.
SpeechServiceAuthorization_Token Jeton d’autorisation du service Speech Cognitive Services (également appelé jeton d’accès). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. À la place, utilisez SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken.
SpeechServiceAuthorization_Type Type d’autorisation du service Speech Cognitive Services. Actuellement inutilisé.
SpeechServiceConnection_EndpointId ID de point de terminaison De reconnaissance vocale personnalisée ou de service vocal personnalisé Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::SetEndpointId. REMARQUE : l’ID de point de terminaison est disponible dans le portail Speech personnalisé, répertorié sous Détails du point de terminaison.
SpeechServiceConnection_Host L’hôte du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::FromHost.
SpeechServiceConnection_ProxyHostName Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyPort Port du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyUserName Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyPassword Mot de passe du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_Url Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. REMARQUE : Ajouté dans la version 1.5.0.
SpeechServiceConnection_TranslationToLanguages Liste des langues séparées par des virgules utilisées comme langues de traduction cibles. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig::AddTargetLanguage et SpeechTranslationConfig::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice Nom de la voix du service de synthèse vocale cognitive. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig::SetVoiceName. REMARQUE : Les noms de voix valides sont disponibles ici.
SpeechServiceConnection_TranslationFeatures Fonctionnalités de traduction. À usage interne uniquement.
SpeechServiceConnection_IntentRegion Région de service Language Understanding. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode Mode de reconnaissance du service Speech De Cognitive Services. Peut être « INTERACTIVE », « CONVERSATION », « DICTÉE ». Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne.
SpeechServiceConnection_RecoLanguage Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::SetSpeechRecognitionLanguage.
Speech_SessionId ID de session. Cet ID est un identificateur universel unique (alias UUID) représentant une liaison spécifique d’un flux d’entrée audio et la instance de reconnaissance vocale sous-jacente à laquelle il est lié. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SessionEventArgs::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Paramètres de requête fournis par les utilisateurs. Ils seront passés au service en tant que paramètres de requête d’URL. Ajout dans la version 1.5.0.
SpeechServiceConnection_RecoBackend Chaîne pour spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, l’option hors connexion n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0.
SpeechServiceConnection_RecoModelName Nom du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0.
SpeechServiceConnection_RecoModelKey Clé de déchiffrement du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0.
SpeechServiceConnection_RecoModelIniFile Chemin d’accès au fichier ini du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0.
SpeechServiceConnection_SynthLanguage Langue parlée à synthétiser (par exemple, en-US) Ajoutée dans la version 1.4.0.
SpeechServiceConnection_SynthVoice Nom de la voix TTS à utiliser pour la synthèse vocale Ajoutée dans la version 1.4.0.
SpeechServiceConnection_SynthOutputFormat Chaîne permettant de spécifier le format audio de sortie TTS Ajouté dans la version 1.4.0.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Indique si le format audio compressé est utilisé pour la transmission audio de synthèse vocale. Cette propriété affecte uniquement quand SpeechServiceConnection_SynthOutputFormat est défini sur un format pcm. Si cette propriété n’est pas définie et que GStreamer est disponible, le KIT de développement logiciel (SDK) utilise le format compressé pour la transmission audio synthétisée et le décode. Vous pouvez définir cette propriété sur « false » pour utiliser le format pcm brut pour la transmission sur câble. Ajout dans la version 1.16.0.
SpeechServiceConnection_SynthBackend Chaîne pour spécifier le back-end TTS ; les options valides sont en ligne et hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. À la place, utilisez EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths pour définir le back-end de synthèse sur hors connexion. Ajout dans la version 1.19.0.
SpeechServiceConnection_SynthOfflineDataPath Chemin(s) de fichier de données pour le moteur de synthèse hors connexion ; Valide uniquement lorsque le back-end de synthèse est hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths. Ajout dans la version 1.19.0.
SpeechServiceConnection_SynthOfflineVoice Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig::SetSpeechSynthesisVoice et EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Ajout dans la version 1.19.0.
SpeechServiceConnection_SynthModelKey Clé de déchiffrement de la voix à utiliser pour la synthèse vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig::SetSpeechSynthesisVoice. Ajout dans la version 1.19.0.
SpeechServiceConnection_VoicesListEndpoint Point de terminaison de l’API (URL) de la liste des voix de Cognitive Services Speech. Dans des circonstances normales, vous n’avez pas besoin de spécifier cette propriété. Le Kit de développement logiciel (SDK) la construit en fonction de la région/de l’hôte/du point de terminaison de SpeechConfig. Ajout dans la version 1.16.0.
SpeechServiceConnection_InitialSilenceTimeoutMs Valeur de délai d’attente de silence initial (en millisecondes) utilisée par le service. Ajout dans la version 1.5.0.
SpeechServiceConnection_EndSilenceTimeoutMs Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajout dans la version 1.5.0.
SpeechServiceConnection_EnableAudioLogging Valeur booléenne spécifiant si la journalisation audio est activée dans le service ou non. Les journaux audio et de contenu sont stockés dans un stockage appartenant à Microsoft ou dans votre propre compte de stockage lié à votre abonnement Cognitive Services (Bring Your Own Storage (BYOS) enabled Speech ressource). Ajout dans la version 1.5.0.
SpeechServiceConnection_LanguageIdMode Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (par défaut) ou « Continu ». Consultez Document d’identification de la langue . Ajout dans la version 1.25.0.
SpeechServiceConnection_AutoDetectSourceLanguages Détection automatique des langues sources ajoutées dans la version 1.8.0.
SpeechServiceConnection_AutoDetectSourceLanguageResult Le résultat de la détection automatique de la langue source a été ajouté dans la version 1.8.0.
SpeechServiceResponse_RequestDetailedResultTrueFalse Format de sortie de la réponse du service Speech Cognitive Services demandé (simple ou détaillé). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse Niveau de débit de la réponse de Cognitive Services Speech Service demandé. Actuellement inutilisé.
SpeechServiceResponse_ProfanityOption Paramètre de sortie de la réponse du service Speech Cognitive Services demandé. Les valeurs autorisées sont « masqué », « supprimé » et « brut ». Ajout dans la version 1.5.0.
SpeechServiceResponse_PostProcessingOption Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service. Les valeurs autorisées sont « TrueText ». Ajout dans la version 1.5.0.
SpeechServiceResponse_RequestWordLevelTimestamps Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajout dans la version 1.5.0.
SpeechServiceResponse_StablePartialResultThreshold Nombre de fois où un mot doit être dans des résultats partiels à retourner. Ajout dans la version 1.5.0.
SpeechServiceResponse_OutputFormatOption Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. À usage interne uniquement Ajout dans la version 1.5.0.
SpeechServiceResponse_RequestSnr Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal/bruit) dans le résultat de la réponse. Ajout dans la version 1.18.0.
SpeechServiceResponse_TranslationRequestStablePartialResult Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant des mots à la fin. Ajout dans la version 1.5.0.
SpeechServiceResponse_RequestWordBoundary Valeur booléenne spécifiant s’il faut demander des événements WordBoundary. Ajout dans la version 1.21.0.
SpeechServiceResponse_RequestPunctuationBoundary Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true. Ajout dans la version 1.21.0.
SpeechServiceResponse_RequestSentenceBoundary Valeur booléenne spécifiant s’il faut demander une limite de phrase dans les événements WordBoundary. La valeur par défaut est false. Ajout dans la version 1.21.0.
SpeechServiceResponse_SynthesisEventsSyncToAudio Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse (par exemple, limite de mot, viseme, etc.) avec la lecture audio. Cela prend effet uniquement lorsque l’audio est lu via le kit SDK. La valeur par défaut est true. Si la valeur est false, le KIT de développement logiciel (SDK) déclenche les événements à mesure qu’ils proviennent du service, ce qui peut être non synchronisé avec la lecture audio. Ajout dans la version 1.31.0.
SpeechServiceResponse_JsonResult Sortie de réponse du service Speech Cognitive Services (au format JSON). Cette propriété n’est disponible que sur les objets de résultat de reconnaissance.
SpeechServiceResponse_JsonErrorDetails Détails de l’erreur du service Speech Cognitive Services (au format JSON). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt CancellationDetails::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs Latence de reconnaissance en millisecondes. En lecture seule, disponible sur les résultats finaux de la parole/traduction/intention. Cela mesure la latence entre le moment où une entrée audio est reçue par le SDK et le moment où le résultat final est reçu du service. Le Kit de développement logiciel (SDK) calcule la différence de temps entre le dernier fragment audio de l’entrée audio qui contribue au résultat final et l’heure à laquelle le résultat final est reçu du service speech. Ajout dans la version 1.3.0.
SpeechServiceResponse_RecognitionBackend Back-end de reconnaissance. En lecture seule, disponible sur les résultats de la reconnaissance vocale. Cela indique si la reconnaissance cloud (en ligne) ou incorporée (hors connexion) a été utilisée pour produire le résultat.
SpeechServiceResponse_SynthesisFirstByteLatencyMs La première latence d’octets de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où le premier octet audio est disponible. Ajout dans la version 1.17.0.
SpeechServiceResponse_SynthesisFinishLatencyMs La synthèse vocale est la latence de tous les octets en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où l’ensemble de l’audio est synthétisé. Ajout dans la version 1.17.0.
SpeechServiceResponse_SynthesisUnderrunTimeMs Durée de sous-exécution de la synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats dans les événements SynthesisCompleted. Cela mesure le temps total de sous-exécution entre PropertyId::AudioConfig_PlaybackBufferLengthInMs est rempli jusqu’à la synthèse terminée. Ajout dans la version 1.17.0.
SpeechServiceResponse_SynthesisConnectionLatencyMs Latence de connexion de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le début du traitement de la synthèse et le moment où la connexion HTTP/WebSocket est établie. Ajout dans la version 1.26.0.
SpeechServiceResponse_SynthesisNetworkLatencyMs Latence du réseau de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps d’aller-retour du réseau. Ajout dans la version 1.26.0.
SpeechServiceResponse_SynthesisServiceLatencyMs Latence du service de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps de traitement du service pour synthétiser le premier octet de l’audio. Ajout dans la version 1.26.0.
SpeechServiceResponse_SynthesisBackend Indique par quel back-end la synthèse est terminée. En lecture seule, disponible sur les résultats de synthèse vocale, à l’exception du résultat dans l’événement SynthesisStarted Ajouté dans la version 1.17.0.
CancellationDetails_Reason Raison de l’annulation. Actuellement inutilisé.
CancellationDetails_ReasonText Texte d’annulation. Actuellement inutilisé.
CancellationDetails_ReasonDetailedText Texte détaillé de l’annulation. Actuellement inutilisé.
LanguageUnderstandingServiceResponse_JsonResult Sortie de réponse du service Language Understanding (au format JSON). Disponible via IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture Nom de l’appareil pour la capture audio. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig::FromMicrophoneInput. REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_NumberOfChannelsForCapture Nombre de canaux pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_SampleRateForCapture Taux d’échantillonnage (en Hz) pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_BitsPerSampleForCapture Nombre de bits de chaque exemple pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_AudioSource Source audio. Les valeurs autorisées sont « Microphones », « File » et « Stream ». Ajout dans la version 1.3.0.
AudioConfig_DeviceNameForRender Nom de l’appareil pour le rendu audio. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig::FromSpeakerOutput. Ajout dans la version 1.14.0.
AudioConfig_PlaybackBufferLengthInMs Longueur de la mémoire tampon de lecture en millisecondes, la valeur par défaut est de 50 millisecondes.
AudioConfig_AudioProcessingOptions Options de traitement audio au format JSON.
Speech_LogFilename Nom de fichier à écrire dans les journaux. Ajouté dans la version 1.4.0.
Speech_SegmentationSilenceTimeoutMs Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée orale est considérablement plus rapide ou plus lente que d’habitude et où le comportement de segmentation par défaut génère systématiquement des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale ; cette propriété doit être configurée avec soin et le comportement résultant doit être entièrement validé comme prévu.
Conversation_ApplicationId Identificateur utilisé pour se connecter au service principal. Ajout dans la version 1.5.0.
Conversation_DialogType Type de back-end de dialogue auquel se connecter. Ajout dans la version 1.7.0.
Conversation_Initial_Silence_Timeout Délai d’expiration du silence pour l’écoute Ajout dans la version 1.5.0.
Conversation_From_Id De l’ID à utiliser sur les activités de reconnaissance vocale Ajouté dans la version 1.5.0.
Conversation_Conversation_Id ConversationId pour la session. Ajout dans la version 1.8.0.
Conversation_Custom_Voice_Deployment_Ids Liste séparée par des virgules des ID de déploiement de la voix personnalisée. Ajout dans la version 1.8.0.
Conversation_Speech_Activity_Template Modèle d’activité Speech, tamponner les propriétés dans le modèle sur l’activité générée par le service pour la reconnaissance vocale. Ajout dans la version 1.10.0.
Conversation_ParticipantId Votre identificateur de participant dans la conversation actuelle. Ajout dans la version 1.13.0.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. L’horodatage est une valeur 64 bits avec une résolution de 90 kHz. Il est identique à l’horodatage de présentation dans un flux de transport MPEG. Consultez https://en.wikipedia.org/wiki/Presentation_timestamp Ajout dans la version 1.5.0.
DataBuffer_UserId ID d’utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. Ajout dans la version 1.5.0.
PronunciationAssessment_ReferenceText Texte de référence de l’audio pour l’évaluation de la prononciation. Pour cela et les paramètres d’évaluation de la prononciation suivants, consultez le tableau Paramètres d’évaluation de la prononciation. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig::Create ou PrononciationAssessmentConfig::SetReferenceText. Ajout dans la version 1.14.0.
PronunciationAssessment_GradingSystem Système de points pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig::Create. Ajout dans la version 1.14.0.
PronunciationAssessment_Granularity Granularité de l’évaluation de la prononciation (Phonème, Word ou FullText). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig::Create. Ajout dans la version 1.14.0.
PronunciationAssessment_EnableMiscue Définit si activer le calcul incorrect. Quand cette option est activée, les mots prononcés sont comparés au texte de référence et sont marqués comme omission/insertion en fonction de la comparaison. La valeur par défaut est False. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig::Create. Ajout dans la version 1.14.0.
PronunciationAssessment_PhonemeAlphabet Alphabet du phonème d’évaluation de la prononciation. Les valeurs valides sont « SAPI » (par défaut) et « IPA » Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Au lieu de cela, utilisez PrononciationAssessmentConfig::SetPhonemeAlphabet. Ajout dans la version 1.20.0.
PronunciationAssessment_NBestPhonemeCount Évaluation de la prononciation nbest phonème count. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig::SetNBestPhonemeCount. Ajout dans la version 1.20.0.
PronunciationAssessment_Json Chaîne json des paramètres d’évaluation de la prononciation Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig::Create. Ajout dans la version 1.14.0.
PronunciationAssessment_Params Paramètres d’évaluation de la prononciation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajout dans la version 1.14.0.
SpeakerRecognition_Api_Version Version de l’API back-end reconnaissance de l’orateur. Cette propriété est ajoutée pour permettre le test et l’utilisation des versions précédentes des API reconnaissance d’orateur, le cas échéant. Ajout dans la version 1.18.0.
SpeechTranslation_ModelName Nom d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.
SpeechTranslation_ModelKey Clé de déchiffrement d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.

Définit les ID de propriété vocale. Modification dans la version 1.4.0.

enum OutputFormat

Valeurs Descriptions
Simple
Detailed

Format de sortie.

enum ProfanityOption

Valeurs Descriptions
Masqué Remplace les lettres en mots profanes par des caractères star.
Supprimé Supprime les mots profanes.
Brut Ne fait rien pour profanes mots.

Supprime les grossièretés (jurons) ou remplace les lettres de mots profanes par des étoiles. Ajout dans la version 1.5.0.

enum ResultReason

Valeurs Descriptions
NoMatch Indique que la reconnaissance vocale n’a pas pu être reconnue. Vous trouverez plus d’informations dans l’objet NoMatchDetails.
Opération annulée Indique que la reconnaissance a été annulée. Pour plus d’informations, utilisez l’objet CancellationDetails.
ReconnaîtreSpeech Indique que le résultat de la parole contient du texte d’hypothèse.
RecognizedSpeech Indique que le résultat de la parole contient le texte final qui a été reconnu. La reconnaissance vocale est maintenant terminée pour cette expression.
ReconnaîtreIntent Indique que le résultat de l’intention contient le texte d’hypothèse et l’intention.
RecognizedIntent Indique que le résultat de l’intention contient le texte final et l’intention. La reconnaissance vocale et la détermination de l’intention sont maintenant terminées pour cette expression.
TranslationSpeech Indique que le résultat de la traduction contient le texte d’hypothèse et sa ou ses traductions.
TranslatedSpeech Indique que le résultat de la traduction contient le texte final et la ou les traductions correspondantes. La reconnaissance vocale et la traduction sont maintenant terminées pour cette expression.
SynthesizingAudio Indique que le résultat audio synthétisé contient une quantité non nulle de données audio.
SynthesizingAudioCompleted Indique que l’audio synthétisé est maintenant terminé pour cette expression.
ReconnaîtreKeyword Indique que le résultat vocal contient (non vérifié) du texte mot clé. Ajouté dans la version 1.3.0.
RecognizedKeyword Indique que mot clé reconnaissance a été effectuée en reconnaissant le mot clé donné. Ajouté dans la version 1.3.0.
SynthesizingAudioStarted Indique que la synthèse vocale est maintenant démarrée Ajout dans la version 1.4.0.
TranslationParticipantSpeech Indique que le résultat de la transcription contient le texte d’hypothèse et sa ou ses traductions pour les autres participants à la conversation. Ajouté dans la version 1.8.0.
TranslatedParticipantSpeech Indique que le résultat de la transcription contient le texte final et la ou les traductions correspondantes pour les autres participants à la conversation. La reconnaissance vocale et la traduction sont maintenant terminées pour cette expression. Ajouté dans la version 1.8.0.
TranslatedInstantMessage Indique que le résultat de la transcription contient le message instantané et la ou les traductions correspondantes. Ajouté dans la version 1.8.0.
TranslatedParticipantInstantMessage Indique que le résultat de la transcription contient le message instantané pour les autres participants à la conversation et la ou les traductions correspondantes. Ajouté dans la version 1.8.0.
EnrollmentVoiceProfile Indique que le profil vocal est en cours d’inscription et que les clients doivent envoyer davantage d’audio pour créer un profil vocal. Ajouté dans la version 1.12.0.
EnrolledVoiceProfile Le profil vocal a été inscrit. Ajouté dans la version 1.12.0.
RecognizedSpeakers Indique l’identification réussie de certains orateurs. Ajouté dans la version 1.12.0.
RecognizedSpeaker Indique qu’un haut-parleur a correctement vérifié. Ajouté dans la version 1.12.0.
ResetVoiceProfile Indique qu’un profil vocal a été correctement réinitialisé. Ajouté dans la version 1.12.0.
DeletedVoiceProfile Indique qu’un profil vocal a été supprimé avec succès. Ajouté dans la version 1.12.0.
VoicesListRetrieved Indique que la liste des voix a été récupérée avec succès. Ajouté dans la version 1.16.0.

Spécifie les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.

enum CancellationReason

Valeurs Descriptions
Error Indique qu’une erreur s’est produite lors de la reconnaissance vocale.
EndOfStream Indique que la fin du flux audio a été atteinte.
CancelledByUser Indique que la demande a été annulée par l’utilisateur. Ajouté dans la version 1.14.0.

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.

enum CancellationErrorCode

Valeurs Descriptions
NoError Pas d'erreur. Si CancellationReason a la valeur EndOfStream, CancellationErrorCode est défini sur NoError.
AuthenticationFailure Indique une erreur d’authentification. Une erreur d’authentification se produit si la clé d’abonnement ou le jeton d’autorisation n’est pas valide, a expiré ou ne correspond pas à la région utilisée.
BadRequest Indique qu’un ou plusieurs paramètres de reconnaissance ne sont pas valides ou que le format audio n’est pas pris en charge.
TooManyRequests Indique que le nombre de demandes parallèles a dépassé le nombre de transcriptions simultanées autorisées pour l’abonnement.
Interdit Indique que l’abonnement gratuit utilisé par la requête n’a plus de quota.
ConnectionFailure Indique une erreur de connexion.
ServiceTimeout Indique une erreur de délai d’attente lors de l’attente de la réponse du service.
ServiceError Indique qu’une erreur est retournée par le service.
ServiceUnavailable Indique que le service est actuellement indisponible.
RuntimeError Indique une erreur d’exécution inattendue.
ServiceRedirectTemporary Indique que le service Speech demande temporairement une reconnexion à un autre point de terminaison.
ServiceRedirectPermanent Indique que le service Speech demande une connexion permanente à un autre point de terminaison.
EmbeddedModelError Indique que le modèle de reconnaissance vocale incorporée (SR ou TTS) n’est pas disponible ou endommagé.

Définit le code d’erreur dans le cas où CancellationReason est Error. Ajout dans la version 1.1.0.

énumération NoMatchReason

Valeurs Descriptions
NotRecognized Indique que la parole a été détectée, mais pas reconnue.
InitialSilenceTimeout Indique que le début du flux audio contenait uniquement le silence et que le service a expiré en attendant la parole.
InitialBabbleTimeout Indique que le début du flux audio ne contenait que du bruit et que le service a expiré en attendant la reconnaissance vocale.
KeywordNotRecognized Indique que le mot clé repéré a été rejeté par le service de vérification mot clé. Ajout dans la version 1.5.0.
EndSilenceTimeout Indique que le flux audio contenait uniquement le silence après la dernière expression reconnue.

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.

enum ActivityJSONType

Valeurs Descriptions
Null
Object
Array
String
Double
UInt
Int
Boolean

Définit les types possibles pour une valeur json d’activité. Ajout dans la version 1.5.0.

enum SpeechSynthesisOutputFormat

Valeurs Descriptions
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren Non pris en charge par le service. N’utilisez pas cette valeur.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren Non pris en charge par le service. N’utilisez pas cette valeur.
Audio16Khz32KBitRateMonoMp3 audio-16 khz-32 kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16 khz-128 kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16 khz-64 kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24 khz-48 kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24 khz-96 kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24 khz-160 kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16 khz-16 bits-mono-pcm
Riff8Khz16BitMonoPcm riff-8 khz-16 bits-mono-pcm
Riff24Khz16BitMonoPcm riff-24 khz-16 bits-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48 khz-16 bits-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus Ajouté dans la version 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus Ajouté dans la version 1.16.0
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus Ajouté dans la version 1.16.0
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk Ajouté dans la version 1.17.0
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw Ajouté dans la version 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw Ajouté dans la version 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus Audio compressé par le codec OPUS dans un conteneur WebM, avec une vitesse de transmission de 24 Kbits/s, optimisé pour le scénario IoT. (Ajouté dans la version 1.19.0)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus Audio compressé par codec OPUS sans conteneur, avec un débit de 32 Kbits/s. (Ajouté dans la version 1.20.0)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Audio compressé par codec OPUS sans conteneur, avec un débit de 48 Kbits/s. (Ajouté dans la version 1.20.0)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24Kbps-mono-opus Audio compressé par le codec OPUS sans conteneur, avec un débit de 24 Kbits/s. (Ajouté dans la version 1.20.0)
Raw22050Hz16BitMonoPcm raw-22050hz-16 bits-mono-pcm Audio PCM brut à un taux d’échantillonnage de 22 050 Hz et une profondeur de 16 bits. (Ajouté dans 1.22.0)
Riff22050Hz16BitMonoPcm riff-22050hz-16 bits-mono-pcm PCM audio à un taux d’échantillonnage de 22 050 Hz et une profondeur de 16 bits, avec l’en-tête RIFF. (Ajouté dans 1.22.0)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm Audio RAW PCM à un taux d’échantillonnage de 44100Hz et une profondeur de 16 bits. (Ajouté dans 1.22.0)
Riff44100Hz16BitMonoPcm riff-44100hz-16 bits-mono-pcm PCM audio à un taux d’échantillonnage de 44100 Hz et une profondeur de 16 bits, avec en-tête RIFF. (Ajouté dans 1.22.0)
AmrWb16000Hz amr-wb-16000hz AMR-WB audio à un taux d’échantillonnage de 16 kHz. (Ajouté dans la version 1.24.0)

Définit les formats audio possibles de sortie de synthèse vocale. Mise à jour dans la version 1.19.0.

enum StreamStatus

Valeurs Descriptions
Unknown Le flux de données audio status est inconnu.
Nodata Le flux de données audio ne contient aucune donnée.
PartialData Le flux de données audio contient des données partielles d’une requête speak.
AllData Le flux de données audio contient toutes les données d’une requête speak.
Opération annulée Le flux de données audio a été annulé.

Définit la status possible du flux de données audio. Ajouté dans la version 1.4.0.

enum ServicePropertyChannel

Valeurs Descriptions
UriQueryParameter Utilise le paramètre de requête URI pour passer les paramètres de propriété au service.
HttpHeader Utilise HttpHeader pour définir une clé/valeur dans un en-tête HTTP.

Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.5.0.

enum VoiceProfileType

Valeurs Descriptions
TextIndependentIdentification Identification de l’orateur indépendant du texte.
TextDependentVerification Vérification de l’orateur dépendant du texte.
TextIndependentVerification Vérification indépendante du texte.

Définit les types de profils vocaux.

enum RecognitionFactorScope

Valeurs Descriptions
PartialPhrase Un facteur de reconnaissance s’applique aux grammaires qui peuvent être référencées en tant qu’expressions partielles individuelles.

Définit l’étendue à laquelle un facteur de reconnaissance est appliqué.

enum PrononciationAssessmentGradingSystem

Valeurs Descriptions
FivePoint Étalonnage en cinq points.
CentMark Cent marques.

Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajouté dans la version 1.14.0.

enum PrononciationAssessmentGranularity

Valeurs Descriptions
Phonème Affiche le score au niveau du texte intégral, du mot et du phonème.
Word Affiche le score au niveau du texte intégral et du mot.
FullText Affiche le score au niveau du texte intégral uniquement.

Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème. Ajouté dans la version 1.14.0.

enum SynthesisVoiceType

Valeurs Descriptions
OnlineNeural Voix neuronale en ligne.
OnlineStandard Voix standard en ligne.
OfflineNeural Voix neuronale hors connexion.
OfflineStandard Voix standard hors connexion.

Définit le type de voix de synthèse ajoutées dans la version 1.16.0.

enum SynthesisVoiceGender

Valeurs Descriptions
Unknown Sexe inconnu.
Female Voix féminine.
Male Voix masculine.

Définit le sexe des voix de synthèse ajoutées dans la version 1.17.0.

enum SpeechSynthesisBoundaryType

Valeurs Descriptions
Word Word limite.
Ponctuation Limite de ponctuation.
majuscule en début de phrase Limite de phrase.

Définit le type de limite de l’événement de limite de synthèse vocale ajouté dans la version 1.21.0.