Partager via


com.microsoft.cognitiveservices.speech

Classes

AudioDataStream

Représente le flux de données audio utilisé pour le fonctionnement des données audio en tant que flux.

AutoDetectSourceLanguageConfig

Représente la configuration de la langue source de détection automatique utilisée pour spécifier les candidats possibles à la langue source Remarque : close() doit être appelé pour libérer les ressources sous-jacentes détenues par l’objet .

AutoDetectSourceLanguageResult

Représente le résultat de la détection automatique des langues sources ajoutées dans la version 1.8.0

CancellationDetails

Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.

ClassLanguageModel

Représente un modèle de langage de classe.

Connection

Connection est une classe proxy permettant de gérer la connexion au service speech du module Recognizer spécifié.

ConnectionEventArgs

Définit la charge utile pour les événements de connexion tels que Connected/Disconnected.

ConnectionMessage

Message de connexionreprésente les messages spécifiques à l’implémentation envoyés et reçus du service speech.

ConnectionMessageEventArgs

Définit la charge utile pour les événements Messagereçu de la connexion.

Diagnostics

Journalisation native et autres diagnostics

EmbeddedSpeechConfig

Classe qui définit la configuration vocale incorporée (hors connexion).

Grammar

Représente une grammaire générique utilisée pour aider à améliorer la précision de recogniton vocale.

GrammarList

Permet d’ajouter plusieurs grammaires à un module dereconnaissance vocale pour améliorer la précision de la reconnaissance vocale.

HybridSpeechConfig

Classe qui définit des configurations hybrides (cloud et incorporées) pour la reconnaissance vocale et la synthèse vocale.

KeywordRecognitionEventArgs

Définit le contenu d’un mot clé reconnaissant/reconnu des événements.

KeywordRecognitionModel

Représente un modèle de reconnaissance mot clé permettant de reconnaître quand l’utilisateur indique qu’un mot clé pour lancer une reconnaissance vocale supplémentaire.

KeywordRecognitionResult

Définit le résultat de la reconnaissance mot clé.

KeywordRecognizer

Effectue mot clé reconnaissance sur l’entrée vocale.

NoMatchDetails

Contient des informations détaillées pour les résultats de la reconnaissance Sanscorrespondance.

PhraseListGrammar

Permet d’ajouter de nouvelles expressions pour améliorer la reconnaissance vocale.

PronunciationAssessmentConfig

Représente la configuration de l’évaluation de la prononciation.

PronunciationAssessmentResult

Représente le résultat de l’évaluation de la prononciation.

PropertyCollection

Représente la collection de propriétés et leurs valeurs.

RecognitionEventArgs

Définit la charge utile pour les événements de reconnaissance tels que La détection de début/de fin de la reconnaissance vocale

RecognitionResult

Contient des informations détaillées sur le résultat d’une opération de reconnaissance.

Recognizer

Définit la classe de base Recognizer qui contient principalement des gestionnaires d’événements courants.

SessionEventArgs

Définit la charge utile pour les événements de sessiondémarrée/arrêtée.

SourceLanguageConfig

Représente la configuration de la langue source utilisée pour spécifier la langue source de reconnaissance.

SpeechConfig

Configuration vocale.

SpeechRecognitionCanceledEventArgs

Définit la charge utile des événements annulés de reconnaissance vocale.

SpeechRecognitionEventArgs

Définit le contenu de l’événement reconnaissance vocale/reconnu.

SpeechRecognitionModel

Contient des informations détaillées sur le modèle de reconnaissance vocale.

SpeechRecognitionResult

Définit le résultat de la reconnaissance vocale.

SpeechRecognizer

Effectue la reconnaissance vocale à partir d’un microphone, d’un fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit.

SpeechSynthesisBookmarkEventArgs

Définit le contenu de l’événement de signet de synthèse vocale.

SpeechSynthesisCancellationDetails

Contient des informations détaillées sur la raison pour laquelle une synthèse vocale a été annulée.

SpeechSynthesisEventArgs

Définit le contenu de l’événement lié à la synthèse vocale.

SpeechSynthesisResult

Contient des informations détaillées sur le résultat d’une opération de synthèse vocale.

SpeechSynthesisVisemeEventArgs

Définit le contenu de l’événement de visème de synthèse vocale.

SpeechSynthesisWordBoundaryEventArgs

Définit le contenu de l’événement de limite de mot de synthèse vocale.

SpeechSynthesizer

Effectue la synthèse vocale vers le haut-parleur, le fichier ou d’autres flux de sortie audio, et obtient l’audio synthétisé en conséquence.

SpeechTranslationModel

Contient des informations détaillées sur le modèle de traduction vocale.

SynthesisVoicesResult

Contient des informations détaillées sur la liste des voix de synthèse récupérées.

VoiceInfo

Contient des informations détaillées sur les informations vocales de synthèse.

Énumérations

CancellationErrorCode

Définit le code d’erreur au cas où le motif d’annulationest Une erreur.

CancellationReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.

NoMatchReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.

OutputFormat

Définissez les formats de sortie speech Recognizer.

ProfanityOption

Définissez l’option blasphème pour le résultat de la réponse.

PronunciationAssessmentGradingSystem

Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint.

PronunciationAssessmentGranularity

Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème.

PropertyId

Définit les ID de propriété.

ResultReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.

ServicePropertyChannel

Définit les canaux utilisés pour envoyer des propriétés de service.

SpeechSynthesisBoundaryType

Définit le type de limite de l’événement de limite de synthèse vocale.

SpeechSynthesisOutputFormat

Définit le format audio de sortie de synthèse vocale possible.

StreamStatus

Définit la status possible du flux de données audio.

SynthesisVoiceGender

Définir le sexe de la voix de synthèse.

SynthesisVoiceType

Définissez le type de voix de synthèse.