Lire en anglais

Partager via


microsoft-cognitiveservices-speech-sdk package

Classes

ActivityReceivedEventArgs

Définit le contenu des messages/événements reçus.

AudioConfig

Représente la configuration d’entrée audio utilisée pour spécifier le type d’entrée à utiliser (microphone, fichier, flux).

AudioInputStream

Représente le flux d’entrée audio utilisé pour les configurations d’entrée audio personnalisées.

AudioOutputStream

Représente le flux de sortie audio utilisé pour les configurations de sortie audio personnalisées.

AudioStreamFormat

Représente le format de flux audio utilisé pour les configurations d’entrée audio personnalisées.

AutoDetectSourceLanguageConfig

Configuration de détection automatique de la langue.

AutoDetectSourceLanguageResult

Format de sortie

AvatarConfig

Définit la configuration de l’avatar parlant.

AvatarEventArgs

Définit du contenu pour parler des événements d’avatar.

AvatarSynthesizer

Définit le synthétiseur d’avatar.

AvatarVideoFormat

Définit le format vidéo de sortie d’avatar.

AvatarWebRTCConnectionResult

Définit le résultat de la connexion WebRTC d’avatar.

BaseAudioPlayer

Classe de lecteur audio de base TODO : lit uniquement PCM pour l’instant.

BotFrameworkConfig

Classe qui définit les configurations de l’objet connecteur de service de boîte de dialogue pour l’utilisation d’un back-end Bot Framework.

CancellationDetails

Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.

CancellationDetailsBase

Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.

Connection

La connexion est une classe proxy pour la gestion de la connexion au service speech du module Recognizer spécifié. Par défaut, un Recognizer gère de manière autonome la connexion au service si nécessaire. La classe Connection fournit des méthodes supplémentaires pour permettre aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner aux modifications d’état de connexion. L’utilisation de la connexion est facultative et principalement pour les scénarios où le réglage précis du comportement de l’application en fonction de l’état de la connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler Open() pour configurer manuellement une connexion à l’avance avant de commencer la reconnaissance sur le module Recognizer associé à cette connexion. Si recognizer doit se connecter ou se déconnecter du service, il configure ou arrête la connexion indépendamment. Dans ce cas, la connexion sera avertie par le changement d’état de connexion via les événements connectés/déconnectés. Ajouté dans la version 1.2.1.

ConnectionEventArgs

Définit la charge utile pour les événements de connexion tels que Connecté/Déconnecté. Ajouté dans la version 1.2.0

ConnectionMessage

ConnectionMessage représente les messages spécifiques à l’implémentation envoyés et reçus par le service speech. Ces messages sont fournis à des fins de débogage et ne doivent pas être utilisés pour les cas d’utilisation de production avec azure Cognitive Services Speech Service. Les messages envoyés et reçus du service Speech sont susceptibles de changer sans préavis. Cela inclut le contenu du message, les en-têtes, les charges utiles, l’ordre, etc. Ajouté dans la version 1.11.0.

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped.

ConversationParticipantsChangedEventArgs

Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped.

ConversationTranscriber

Effectue la reconnaissance vocale avec séparation du haut-parleur du microphone, du fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit.

ConversationTranscriptionCanceledEventArgs

Définit le contenu d’un Objet RecognitionErrorEvent.

ConversationTranscriptionEventArgs

Définit le contenu de l’événement transcrit/transcription de conversation.

ConversationTranscriptionResult

Définit le résultat de la transcription de conversation.

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Définit la charge utile pour les événements de session tels que Speech Start/End Détectés

ConversationTranslationResult

Résultat du texte de traduction.

ConversationTranslator

Rejoignez, quittez ou connectez-vous à une conversation.

Coordinate

Définit une coordonnée dans l’espace 2D.

CustomCommandsConfig

Classe qui définit les configurations de l’objet connecteur de service de boîte de dialogue pour l’utilisation d’un back-end CustomCommands.

Diagnostics

Définit l’API de diagnostic pour la gestion de la sortie de la console ajoutée dans la version 1.21.0

DialogServiceConfig

Classe qui définit les configurations de base pour le connecteur de service de boîte de dialogue

DialogServiceConnector

Connecteur de service de boîte de dialogue

IntentRecognitionCanceledEventArgs

Définissez la charge utile des événements de résultat annulés de reconnaissance d’intention.

IntentRecognitionEventArgs

Arguments d’événement de résultat de reconnaissance d’intention.

IntentRecognitionResult

Résultat de la reconnaissance d’intention.

IntentRecognizer

Module de reconnaissance d’intention.

KeywordRecognitionModel

Représente un modèle de reconnaissance de mot clé pour la reconnaissance lorsque l’utilisateur indique un mot clé pour lancer une reconnaissance vocale supplémentaire.

LanguageUnderstandingModel

Modèle de compréhension du langage

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

Définit le contenu d’un MeetingTranscriptionCanceledEvent.

MeetingTranscriptionEventArgs

Définit le contenu de l’événement transcrit/transcription de réunion.

NoMatchDetails

Contient des informations détaillées pour les résultats de la reconnaissance NoMatch.

Participant

Représente un participant à une conversation. Ajouté dans la version 1.4.0

PhraseListGrammar

Permet d’ajouter de nouvelles expressions pour améliorer la reconnaissance vocale.

Les expressions ajoutées au module de reconnaissance sont effectives au début de la reconnaissance suivante, ou la prochaine fois que speechSDK doit se reconnecter au service speech.

PronunciationAssessmentConfig

Configuration de l’évaluation de la prononciation.

PronunciationAssessmentResult

Résultats de l’évaluation de la prononciation.

PropertyCollection

Représente la collection de propriétés et leurs valeurs.

PullAudioInputStream

Représente le flux d’entrée audio utilisé pour les configurations d’entrée audio personnalisées.

PullAudioInputStreamCallback

Classe de base abstraite qui définit les méthodes de rappel (read() et close()) pour les flux d’entrée audio personnalisés.

PullAudioOutputStream

Représente le flux de sortie audio push en mémoire utilisé pour les configurations de sortie audio personnalisées.

PushAudioInputStream

Représente le flux d’entrée audio push en mémoire utilisé pour les configurations d’entrée audio personnalisées.

PushAudioOutputStream

Représente le flux de sortie audio utilisé pour les configurations de sortie audio personnalisées.

PushAudioOutputStreamCallback

Classe de base abstraite qui définit les méthodes de rappel (write() et close()) pour les flux de sortie audio personnalisés.

RecognitionEventArgs

Définit la charge utile pour les événements de session tels que Speech Start/End Détectés

RecognitionResult

Définit le résultat de la reconnaissance vocale.

Recognizer

Définit la classe de base Recognizer qui contient principalement des gestionnaires d’événements courants.

ServiceEventArgs

Définit la charge utile pour tout événement de message de service ajouté dans la version 1.9.0

SessionEventArgs

Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped.

SourceLanguageConfig

Configuration du langage source.

SpeakerAudioDestination

Représente la destination audio de lecture du haut-parleur, qui fonctionne uniquement dans le navigateur. Remarque : le Kit de développement logiciel (SDK) tente d’utiliser extensions de source multimédia pour lire l’audio. Le format Mp3 offre de meilleures prise en charge sur Microsoft Edge, Chrome et Safari (bureau), il est donc préférable de spécifier le format mp3 pour la lecture.

SpeakerIdentificationModel

Définit la classe SpeakerIdentificationModel pour le modèle de reconnaissance de l’orateur contient un ensemble de profils sur lesquels identifier les haut-parleurs

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

Format de sortie

SpeakerRecognizer

Définit la classe SpeakerRecognizer pour les opérations handles de reconnaissance de l’orateur de l’utilisateur pour les opérations de profil vocal (par exemple, createProfile, deleteProfile)

SpeakerVerificationModel

Définit la classe SpeakerVerificationModel pour le modèle de reconnaissance de l’orateur contient un profil sur lequel vérifier un haut-parleur

SpeechConfig

Configuration vocale.

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

Définit le contenu de l’événement reconnaissance vocale/reconnu.

SpeechRecognitionResult

Définit le résultat de la reconnaissance vocale.

SpeechRecognizer

Effectue la reconnaissance vocale à partir du microphone, du fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit.

SpeechSynthesisBookmarkEventArgs

Définit le contenu de l’événement de signet de synthèse vocale.

SpeechSynthesisEventArgs

Définit le contenu des événements de synthèse vocale.

SpeechSynthesisResult

Définit le résultat de la synthèse vocale.

SpeechSynthesisVisemeEventArgs

Définit le contenu de l’événement viseme de synthèse vocale.

SpeechSynthesisWordBoundaryEventArgs

Définit le contenu de l’événement de limite de mot de synthèse vocale.

SpeechSynthesizer

Définit la classe SpeechSynthesizer pour la synthèse vocale. Mise à jour dans la version 1.16.0

SpeechTranslationConfig

Configuration de la traduction vocale.

SynthesisResult

Classe de base pour les résultats de synthèse

SynthesisVoicesResult

Définit le résultat de la synthèse vocale.

Synthesizer
TranslationRecognitionCanceledEventArgs

Définissez la charge utile des événements de résultat annulés de reconnaissance vocale.

TranslationRecognitionEventArgs

Arguments d’événement de résultat de traduction de texte.

TranslationRecognitionResult

Résultat du texte de traduction.

TranslationRecognizer

Module de reconnaissance de traduction

TranslationSynthesisEventArgs

Arguments d’événement De synthèse de traduction

TranslationSynthesisResult

Définit le résultat de la synthèse de traduction, c’est-à-dire la sortie vocale du texte traduit dans la langue cible.

Translations

Représente la collection de paramètres et leurs valeurs.

TurnStatusReceivedEventArgs

Définit le contenu des messages/événements reçus.

User
VoiceInfo

Informations sur la voix de synthèse vocale ajoutée dans la version 1.20.0.

VoiceProfile

Définit la classe Profil vocal pour la reconnaissance de l’orateur

VoiceProfileCancellationDetails
VoiceProfileClient

Définit la classe VoiceProfileClient pour les opérations handles de reconnaissance de l’orateur à partir de l’utilisateur pour les opérations de profil vocal (par exemple, createProfile, deleteProfile)

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

Format de sortie

VoiceProfilePhraseResult

Format de sortie

VoiceProfileResult

Format de sortie

Interfaces

CancellationEventArgs
ConversationInfo
IParticipant

Représente un participant à une conversation. Ajouté dans la version 1.4.0

IPlayer

Représente l’interface du lecteur audio pour contrôler la lecture audio, telle que la pause, la reprise, etc.

IVoiceJson
MeetingInfo
VoiceSignature

Énumérations

AudioFormatTag
CancellationErrorCode

Définit le code d’erreur en cas d’erreur d’CancellationReason. Ajouté dans la version 1.1.0.

CancellationReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.

LanguageIdMode

Mode d’identification de la langue

LogLevel
NoMatchReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.

OutputFormat

Définissez les formats de sortie Speech Recognizer.

ParticipantChangedReason
ProfanityOption

Option de profanité. Ajouté dans la version 1.7.0.

PronunciationAssessmentGradingSystem

Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajouté dans la version 1.15.0

PronunciationAssessmentGranularity

Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phoneme. Ajouté dans la version 1.15.0

PropertyId

Définit les ID de propriété speech.

ResultReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.

ServicePropertyChannel

Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.7.0.

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

Définit le type de limite de l’événement de limite de synthèse vocale.

SpeechSynthesisOutputFormat

Définissez les formats de sortie audio de synthèse vocale. SpeechSynthesisOutputFormat Mis à jour dans la version 1.17.0

VoiceProfileType

Format de sortie