microsoft-cognitiveservices-speech-sdk package
Activity |
Définit le contenu des messages/événements reçus. |
Audio |
Représente la configuration d’entrée audio utilisée pour spécifier le type d’entrée à utiliser (microphone, fichier, flux). |
Audio |
Représente le flux d’entrée audio utilisé pour les configurations d’entrée audio personnalisées. |
Audio |
Représente le flux de sortie audio utilisé pour les configurations de sortie audio personnalisées. |
Audio |
Représente le format de flux audio utilisé pour les configurations d’entrée audio personnalisées. |
Auto |
Configuration de détection automatique de la langue. |
Auto |
Format de sortie |
Avatar |
Définit la configuration de l’avatar parlant. |
Avatar |
Définit du contenu pour parler des événements d’avatar. |
Avatar |
Définit le synthétiseur d’avatar. |
Avatar |
Définit le format vidéo de sortie d’avatar. |
Avatar |
Définit le résultat de la connexion WebRTC d’avatar. |
Base |
Classe de lecteur audio de base TODO : lit uniquement PCM pour l’instant. |
Bot |
Classe qui définit les configurations de l’objet connecteur de service de boîte de dialogue pour l’utilisation d’un back-end Bot Framework. |
Cancellation |
Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. |
Cancellation |
Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. |
Connection |
La connexion est une classe proxy pour la gestion de la connexion au service speech du module Recognizer spécifié. Par défaut, un Recognizer gère de manière autonome la connexion au service si nécessaire. La classe Connection fournit des méthodes supplémentaires pour permettre aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner aux modifications d’état de connexion. L’utilisation de la connexion est facultative et principalement pour les scénarios où le réglage précis du comportement de l’application en fonction de l’état de la connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler Open() pour configurer manuellement une connexion à l’avance avant de commencer la reconnaissance sur le module Recognizer associé à cette connexion. Si recognizer doit se connecter ou se déconnecter du service, il configure ou arrête la connexion indépendamment. Dans ce cas, la connexion sera avertie par le changement d’état de connexion via les événements connectés/déconnectés. Ajouté dans la version 1.2.1. |
Connection |
Définit la charge utile pour les événements de connexion tels que Connecté/Déconnecté. Ajouté dans la version 1.2.0 |
Connection |
ConnectionMessage représente les messages spécifiques à l’implémentation envoyés et reçus par le service speech. Ces messages sont fournis à des fins de débogage et ne doivent pas être utilisés pour les cas d’utilisation de production avec azure Cognitive Services Speech Service. Les messages envoyés et reçus du service Speech sont susceptibles de changer sans préavis. Cela inclut le contenu du message, les en-têtes, les charges utiles, l’ordre, etc. Ajouté dans la version 1.11.0. |
Connection |
|
Conversation | |
Conversation |
Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped. |
Conversation |
Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped. |
Conversation |
Effectue la reconnaissance vocale avec séparation du haut-parleur du microphone, du fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit. |
Conversation |
Définit le contenu d’un Objet RecognitionErrorEvent. |
Conversation |
Définit le contenu de l’événement transcrit/transcription de conversation. |
Conversation |
Définit le résultat de la transcription de conversation. |
Conversation |
|
Conversation |
Définit la charge utile pour les événements de session tels que Speech Start/End Détectés |
Conversation |
Résultat du texte de traduction. |
Conversation |
Rejoignez, quittez ou connectez-vous à une conversation. |
Coordinate |
Définit une coordonnée dans l’espace 2D. |
Custom |
Classe qui définit les configurations de l’objet connecteur de service de boîte de dialogue pour l’utilisation d’un back-end CustomCommands. |
Diagnostics |
Définit l’API de diagnostic pour la gestion de la sortie de la console ajoutée dans la version 1.21.0 |
Dialog |
Classe qui définit les configurations de base pour le connecteur de service de boîte de dialogue |
Dialog |
Connecteur de service de boîte de dialogue |
Intent |
Définissez la charge utile des événements de résultat annulés de reconnaissance d’intention. |
Intent |
Arguments d’événement de résultat de reconnaissance d’intention. |
Intent |
Résultat de la reconnaissance d’intention. |
Intent |
Module de reconnaissance d’intention. |
Keyword |
Représente un modèle de reconnaissance de mot clé pour la reconnaissance lorsque l’utilisateur indique un mot clé pour lancer une reconnaissance vocale supplémentaire. |
Language |
Modèle de compréhension du langage |
Meeting | |
Meeting |
|
Meeting |
Définit le contenu d’un MeetingTranscriptionCanceledEvent. |
Meeting |
Définit le contenu de l’événement transcrit/transcription de réunion. |
No |
Contient des informations détaillées pour les résultats de la reconnaissance NoMatch. |
Participant |
Représente un participant à une conversation. Ajouté dans la version 1.4.0 |
Phrase |
Permet d’ajouter de nouvelles expressions pour améliorer la reconnaissance vocale. Les expressions ajoutées au module de reconnaissance sont effectives au début de la reconnaissance suivante, ou la prochaine fois que speechSDK doit se reconnecter au service speech. |
Pronunciation |
Configuration de l’évaluation de la prononciation. |
Pronunciation |
Résultats de l’évaluation de la prononciation. |
Property |
Représente la collection de propriétés et leurs valeurs. |
Pull |
Représente le flux d’entrée audio utilisé pour les configurations d’entrée audio personnalisées. |
Pull |
Classe de base abstraite qui définit les méthodes de rappel (read() et close()) pour les flux d’entrée audio personnalisés. |
Pull |
Représente le flux de sortie audio push en mémoire utilisé pour les configurations de sortie audio personnalisées. |
Push |
Représente le flux d’entrée audio push en mémoire utilisé pour les configurations d’entrée audio personnalisées. |
Push |
Représente le flux de sortie audio utilisé pour les configurations de sortie audio personnalisées. |
Push |
Classe de base abstraite qui définit les méthodes de rappel (write() et close()) pour les flux de sortie audio personnalisés. |
Recognition |
Définit la charge utile pour les événements de session tels que Speech Start/End Détectés |
Recognition |
Définit le résultat de la reconnaissance vocale. |
Recognizer |
Définit la classe de base Recognizer qui contient principalement des gestionnaires d’événements courants. |
Service |
Définit la charge utile pour tout événement de message de service ajouté dans la version 1.9.0 |
Session |
Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped. |
Source |
Configuration du langage source. |
Speaker |
Représente la destination audio de lecture du haut-parleur, qui fonctionne uniquement dans le navigateur. Remarque : le Kit de développement logiciel (SDK) tente d’utiliser extensions de source multimédia pour lire l’audio. Le format Mp3 offre de meilleures prise en charge sur Microsoft Edge, Chrome et Safari (bureau), il est donc préférable de spécifier le format mp3 pour la lecture. |
Speaker |
Définit la classe SpeakerIdentificationModel pour le modèle de reconnaissance de l’orateur contient un ensemble de profils sur lesquels identifier les haut-parleurs |
Speaker |
|
Speaker |
Format de sortie |
Speaker |
Définit la classe SpeakerRecognizer pour les opérations handles de reconnaissance de l’orateur de l’utilisateur pour les opérations de profil vocal (par exemple, createProfile, deleteProfile) |
Speaker |
Définit la classe SpeakerVerificationModel pour le modèle de reconnaissance de l’orateur contient un profil sur lequel vérifier un haut-parleur |
Speech |
Configuration vocale. |
Speech |
|
Speech |
|
Speech |
Définit le contenu de l’événement reconnaissance vocale/reconnu. |
Speech |
Définit le résultat de la reconnaissance vocale. |
Speech |
Effectue la reconnaissance vocale à partir du microphone, du fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit. |
Speech |
Définit le contenu de l’événement de signet de synthèse vocale. |
Speech |
Définit le contenu des événements de synthèse vocale. |
Speech |
Définit le résultat de la synthèse vocale. |
Speech |
Définit le contenu de l’événement viseme de synthèse vocale. |
Speech |
Définit le contenu de l’événement de limite de mot de synthèse vocale. |
Speech |
Définit la classe SpeechSynthesizer pour la synthèse vocale. Mise à jour dans la version 1.16.0 |
Speech |
Configuration de la traduction vocale. |
Synthesis |
Classe de base pour les résultats de synthèse |
Synthesis |
Définit le résultat de la synthèse vocale. |
Synthesizer | |
Translation |
Définissez la charge utile des événements de résultat annulés de reconnaissance vocale. |
Translation |
Arguments d’événement de résultat de traduction de texte. |
Translation |
Résultat du texte de traduction. |
Translation |
Module de reconnaissance de traduction |
Translation |
Arguments d’événement De synthèse de traduction |
Translation |
Définit le résultat de la synthèse de traduction, c’est-à-dire la sortie vocale du texte traduit dans la langue cible. |
Translations |
Représente la collection de paramètres et leurs valeurs. |
Turn |
Définit le contenu des messages/événements reçus. |
User | |
Voice |
Informations sur la voix de synthèse vocale ajoutée dans la version 1.20.0. |
Voice |
Définit la classe Profil vocal pour la reconnaissance de l’orateur |
Voice |
|
Voice |
Définit la classe VoiceProfileClient pour les opérations handles de reconnaissance de l’orateur à partir de l’utilisateur pour les opérations de profil vocal (par exemple, createProfile, deleteProfile) |
Voice |
|
Voice |
Format de sortie |
Voice |
Format de sortie |
Voice |
Format de sortie |
Cancellation |
|
Conversation |
|
IParticipant |
Représente un participant à une conversation. Ajouté dans la version 1.4.0 |
IPlayer |
Représente l’interface du lecteur audio pour contrôler la lecture audio, telle que la pause, la reprise, etc. |
IVoice |
|
Meeting |
|
Voice |
Audio |
|
Cancellation |
Définit le code d’erreur en cas d’erreur d’CancellationReason. Ajouté dans la version 1.1.0. |
Cancellation |
Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé. |
Language |
Mode d’identification de la langue |
Log |
|
No |
Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu. |
Output |
Définissez les formats de sortie Speech Recognizer. |
Participant |
|
Profanity |
Option de profanité. Ajouté dans la version 1.7.0. |
Pronunciation |
Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajouté dans la version 1.15.0 |
Pronunciation |
Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phoneme. Ajouté dans la version 1.15.0 |
Property |
Définit les ID de propriété speech. |
Result |
Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré. |
Service |
Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.7.0. |
Speaker |
|
Speech |
Définit le type de limite de l’événement de limite de synthèse vocale. |
Speech |
Définissez les formats de sortie audio de synthèse vocale. SpeechSynthesisOutputFormat Mis à jour dans la version 1.17.0 |
Voice |
Format de sortie |