microsoft-cognitiveservices-speech-sdk package
Classes
ActivityReceivedEventArgs |
Définit le contenu des messages/événements reçus. |
AudioConfig |
Représente la configuration d’entrée audio utilisée pour spécifier le type d’entrée à utiliser (microphone, fichier, flux). |
AudioInputStream |
Représente le flux d’entrée audio utilisé pour les configurations d’entrée audio personnalisées. |
AudioOutputStream |
Représente le flux de sortie audio utilisé pour les configurations de sortie audio personnalisées. |
AudioStreamFormat |
Représente le format de flux audio utilisé pour les configurations d’entrée audio personnalisées. |
AutoDetectSourceLanguageConfig |
Configuration de la détection automatique de la langue. |
AutoDetectSourceLanguageResult |
Format de sortie |
AvatarConfig |
Définit la configuration de l’avatar parlant. |
AvatarEventArgs |
Définit le contenu pour parler des événements d’avatar. |
AvatarSynthesizer |
Définit le synthétiseur d’avatar. |
AvatarVideoFormat |
Définit le format vidéo de sortie de l’avatar. |
AvatarWebRTCConnectionResult |
Définit le résultat de la connexion WebRTC de l’avatar. |
BaseAudioPlayer |
TODO de la classe de lecteur audio de base : lit uniquement PCM pour l’instant. |
BotFrameworkConfig |
Classe qui définit les configurations de l’objet connecteur du service de dialogue pour l’utilisation d’un serveur principal Bot Framework. |
CancellationDetails |
Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. |
CancellationDetailsBase |
Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. |
Connection |
Connection est une classe proxy permettant de gérer la connexion au service speech du module Recognizer spécifié. Par défaut, un module Recognizer gère de manière autonome la connexion au service si nécessaire. La classe Connection fournit des méthodes supplémentaires permettant aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner aux modifications de status de connexion. L’utilisation de La connexion est facultative, et principalement pour les scénarios où un réglage précis du comportement de l’application en fonction des status de connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler Open() pour configurer manuellement une connexion à l’avance avant de commencer la reconnaissance sur le module de reconnaissance associé à cette connexion. Si le module Recognizer doit se connecter ou se déconnecter du service, il configure ou arrête la connexion indépendamment. Dans ce cas, la connexion sera avertie par un changement de status de connexion via des événements connectés/déconnectés. Ajouté dans la version 1.2.1. |
ConnectionEventArgs |
Définit la charge utile pour les événements de connexion tels que Connected/Disconnected. Ajouté dans la version 1.2.0 |
ConnectionMessage |
ConnectionMessage représente les messages spécifiques à l’implémentation envoyés et reçus du service speech. Ces messages sont fournis à des fins de débogage et ne doivent pas être utilisés pour des cas d’usage de production avec le service Speech d’Azure Cognitive Services. Les messages envoyés et reçus par le service Speech sont susceptibles d’être modifiés sans préavis. Cela inclut le contenu des messages, les en-têtes, les charges utiles, le classement, etc. Ajouté dans la version 1.11.0. |
ConnectionMessageEventArgs | |
Conversation | |
ConversationExpirationEventArgs |
Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped. |
ConversationParticipantsChangedEventArgs |
Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped. |
ConversationTranscriber |
Effectue la reconnaissance vocale avec séparation du haut-parleur du microphone, du fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit. |
ConversationTranscriptionCanceledEventArgs |
Définit le contenu d’un objet RecognitionErrorEvent. |
ConversationTranscriptionEventArgs |
Définit le contenu de l’événement de transcription/transcription de conversation. |
ConversationTranscriptionResult |
Définit le résultat de la transcription de conversation. |
ConversationTranslationCanceledEventArgs | |
ConversationTranslationEventArgs |
Définit la charge utile pour les événements de session tels que Speech Start/End Detected |
ConversationTranslationResult |
Résultat de la traduction de texte. |
ConversationTranslator |
Rejoignez, quittez ou connectez-vous à une conversation. |
Coordinate |
Définit une coordonnée dans l’espace 2D. |
CustomCommandsConfig |
Classe qui définit les configurations de l’objet connecteur de service de dialogue pour l’utilisation d’un serveur principal CustomCommands. |
Diagnostics |
Définit diagnostics API pour la gestion de la sortie de console Ajoutée dans la version 1.21.0 |
DialogServiceConfig |
Classe qui définit les configurations de base pour le connecteur de service de dialogue |
DialogServiceConnector |
Connecteur de service de boîte de dialogue |
IntentRecognitionCanceledEventArgs |
Définissez la charge utile des événements de résultat annulés de reconnaissance d’intention. |
IntentRecognitionEventArgs |
Arguments d’événement de résultat de la reconnaissance d’intention. |
IntentRecognitionResult |
Résultat de la reconnaissance d’intention. |
IntentRecognizer |
Module de reconnaissance d’intention. |
KeywordRecognitionModel |
Représente un modèle de reconnaissance mot clé permettant de reconnaître quand l’utilisateur indique qu’un mot clé pour lancer une reconnaissance vocale supplémentaire. |
LanguageUnderstandingModel |
Modèle de compréhension du langage |
Meeting | |
MeetingTranscriber | |
MeetingTranscriptionCanceledEventArgs |
Définit le contenu d’un Objet MeetingTranscriptionCanceledEvent. |
MeetingTranscriptionEventArgs |
Définit le contenu de l’événement transcrit/transcription de réunion. |
NoMatchDetails |
Contient des informations détaillées sur les résultats de la reconnaissance NoMatch. |
Participant |
Représente un participant à une conversation. Ajouté dans la version 1.4.0 |
PhraseListGrammar |
Permet d’ajouter de nouvelles expressions pour améliorer la reconnaissance vocale. Les expressions ajoutées au module de reconnaissance sont effectives au début de la reconnaissance suivante, ou à la prochaine fois que le SpeechSDK doit se reconnecter au service speech. |
PronunciationAssessmentConfig |
Configuration de l’évaluation de la prononciation. |
PronunciationAssessmentResult |
Résultats de l’évaluation de prononciation. |
PropertyCollection |
Représente la collection de propriétés et leurs valeurs. |
PullAudioInputStream |
Représente le flux d’entrée audio utilisé pour les configurations d’entrée audio personnalisées. |
PullAudioInputStreamCallback |
Classe de base abstraite qui définit les méthodes de rappel (read() et close()) pour les flux d’entrée audio personnalisés. |
PullAudioOutputStream |
Représente le flux de sortie audio Push soutenu par la mémoire utilisé pour les configurations de sortie audio personnalisées. |
PushAudioInputStream |
Représente le flux d’entrée audio Push sauvegardé en mémoire utilisé pour les configurations d’entrée audio personnalisées. |
PushAudioOutputStream |
Représente le flux de sortie audio utilisé pour les configurations de sortie audio personnalisées. |
PushAudioOutputStreamCallback |
Classe de base abstraite qui définit les méthodes de rappel (write() et close()) pour les flux de sortie audio personnalisés. |
RecognitionEventArgs |
Définit la charge utile pour les événements de session tels que Speech Start/End Detected |
RecognitionResult |
Définit le résultat de la reconnaissance vocale. |
Recognizer |
Définit la classe de base Recognizer qui contient principalement des gestionnaires d’événements courants. |
ServiceEventArgs |
Définit la charge utile pour tout événement de message de service ajouté dans la version 1.9.0 |
SessionEventArgs |
Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped. |
SourceLanguageConfig |
Configuration de la langue source. |
SpeakerAudioDestination |
Représente la destination audio de lecture de l’orateur, qui fonctionne uniquement dans le navigateur. Remarque : le Kit de développement logiciel (SDK) essaiera d’utiliser des extensions de source multimédia pour lire l’audio. Le format Mp3 offre une meilleure prise en charge sur Microsoft Edge, Chrome et Safari (bureau). Il est donc préférable de spécifier le format mp3 pour la lecture. |
SpeakerIdentificationModel |
Définit la classe SpeakerIdentificationModel pour le modèle de reconnaissance de l’orateur contient un ensemble de profils sur lesquels identifier le ou les haut-parleurs |
SpeakerRecognitionCancellationDetails | |
SpeakerRecognitionResult |
Format de sortie |
SpeakerRecognizer |
Définit la classe SpeakerRecognizer pour les opérations de handles de reconnaissance de l’orateur de l’utilisateur pour les opérations de profil vocal (par exemple, createProfile, deleteProfile) |
SpeakerVerificationModel |
Définit la classe SpeakerVerificationModel pour le modèle de reconnaissance de l’orateur contient un profil sur lequel vérifier un orateur |
SpeechConfig |
Configuration vocale. |
SpeechConfigImpl | |
SpeechRecognitionCanceledEventArgs | |
SpeechRecognitionEventArgs |
Définit le contenu de l’événement reconnaissance vocale/reconnu. |
SpeechRecognitionResult |
Définit le résultat de la reconnaissance vocale. |
SpeechRecognizer |
Effectue la reconnaissance vocale à partir d’un microphone, d’un fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit. |
SpeechSynthesisBookmarkEventArgs |
Définit le contenu de l’événement de signet de synthèse vocale. |
SpeechSynthesisEventArgs |
Définit le contenu des événements de synthèse vocale. |
SpeechSynthesisResult |
Définit le résultat de la synthèse vocale. |
SpeechSynthesisVisemeEventArgs |
Définit le contenu de l’événement de visème de synthèse vocale. |
SpeechSynthesisWordBoundaryEventArgs |
Définit le contenu de l’événement de limite de mot de synthèse vocale. |
SpeechSynthesizer |
Définit la classe SpeechSynthesizer pour la synthèse vocale. Mise à jour dans la version 1.16.0 |
SpeechTranslationConfig |
Configuration de la traduction vocale. |
SynthesisResult |
Classe de base pour les résultats de la synthèse |
SynthesisVoicesResult |
Définit le résultat de la synthèse vocale. |
Synthesizer | |
TranslationRecognitionCanceledEventArgs |
Définissez la charge utile des événements de résultat annulés de reconnaissance vocale. |
TranslationRecognitionEventArgs |
Arguments d’événement de résultat de texte de traduction. |
TranslationRecognitionResult |
Résultat de la traduction de texte. |
TranslationRecognizer |
Module de reconnaissance de traduction |
TranslationSynthesisEventArgs |
Arguments d’événement de synthèse de traduction |
TranslationSynthesisResult |
Définit le résultat de la synthèse de traduction, c’est-à-dire la sortie vocale du texte traduit dans la langue cible. |
Translations |
Représente la collection de paramètres et leurs valeurs. |
TurnStatusReceivedEventArgs |
Définit le contenu des messages/événements reçus. |
User | |
VoiceInfo |
Informations sur la voix de synthèse vocale Ajoutées dans la version 1.20.0. |
VoiceProfile |
Définit la classe Voice Profile pour la reconnaissance de l’orateur |
VoiceProfileCancellationDetails | |
VoiceProfileClient |
Définit la classe VoiceProfileClient pour les opérations de handles de reconnaissance de l’orateur de l’utilisateur pour les opérations de profil vocal (par exemple, createProfile, deleteProfile) |
VoiceProfileEnrollmentCancellationDetails | |
VoiceProfileEnrollmentResult |
Format de sortie |
VoiceProfilePhraseResult |
Format de sortie |
VoiceProfileResult |
Format de sortie |
Interfaces
CancellationEventArgs | |
ConversationInfo | |
IParticipant |
Représente un participant à une conversation. Ajouté dans la version 1.4.0 |
IPlayer |
Représente l’interface du lecteur audio pour contrôler la lecture audio, comme la pause, la reprise, etc. |
IVoiceJson | |
MeetingInfo | |
VoiceSignature |
Énumérations
AudioFormatTag | |
CancellationErrorCode |
Définit le code d’erreur au cas où CancellationReason est Error. Ajout dans la version 1.1.0. |
CancellationReason |
Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé. |
LanguageIdMode |
Mode d’identification de la langue |
LogLevel | |
NoMatchReason |
Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu. |
OutputFormat |
Définissez les formats de sortie speech Recognizer. |
ParticipantChangedReason | |
ProfanityOption |
Option blasphème. Ajouté dans la version 1.7.0. |
PronunciationAssessmentGradingSystem |
Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajouté dans la version 1.15.0 |
PronunciationAssessmentGranularity |
Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème. Ajouté dans la version 1.15.0 |
PropertyId |
Définit les ID de propriété vocale. |
ResultReason |
Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré. |
ServicePropertyChannel |
Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.7.0. |
SpeakerRecognitionResultType | |
SpeechSynthesisBoundaryType |
Définit le type de limite de l’événement de limite de synthèse vocale. |
SpeechSynthesisOutputFormat |
Définissez les formats de sortie audio de synthèse vocale. SpeechSynthesisOutputFormat Mis à jour dans la version 1.17.0 |
VoiceProfileType |
Format de sortie |