speech Paquet
Kit de développement logiciel (SDK) Microsoft Speech pour Python
Modules
audio |
Classes qui s’occupent de la gestion de l’entrée audio dans les différents modules de reconnaissance et de la sortie audio du synthétiseur vocal. |
dialog |
Classes liées au connecteur de service de dialogue. |
enums |
Kit de développement logiciel (SDK) Microsoft Speech pour Python |
intent |
Classes liées à la reconnaissance d’intention à partir de la parole. |
interop |
Kit de développement logiciel (SDK) Microsoft Speech pour Python |
languageconfig |
Classes qui sont concernées par la gestion des configurations de langage |
properties |
Kit de développement logiciel (SDK) Microsoft Speech pour Python |
speech |
Classes liées à la reconnaissance vocale, à la synthèse vocale et aux classes générales utilisées dans les différents modules de reconnaissance. |
transcription |
Classes liées à la transcription de conversation. |
translation |
Classes liées à la traduction de la parole vers d’autres langues. |
version |
Kit de développement logiciel (SDK) Microsoft Speech pour Python |
Classes
AudioDataStream |
Représente le flux de données audio utilisé pour le fonctionnement des données audio en tant que flux. Génère un flux de données audio à partir d’un résultat de synthèse vocale (de type SpeechSynthesisResult) ou d’un résultat de reconnaissance mot clé (type KeywordRecognitionResult). |
AutoDetectSourceLanguageResult |
Représente le résultat de la langue source de détection automatique. Le résultat peut être initialisé à partir d’un résultat de reconnaissance vocale. |
CancellationDetails |
Kit de développement logiciel (SDK) Microsoft Speech pour Python |
Connection |
Classe proxy pour la gestion de la connexion au service speech du spécifié Recognizer. Par défaut, un gestionnaire Recognizer autonome de la connexion au service en cas de besoin. La Connection classe fournit des méthodes supplémentaires permettant aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner aux modifications de status de connexion. L’utilisation de Connection est facultative. Il est destiné aux scénarios dans lesquels un réglage précis du comportement de l’application en fonction des status de connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler open pour lancer manuellement une connexion de service avant de commencer la reconnaissance sur le Recognizer associé à ce Connection. Après avoir démarré une reconnaissance, l’appel open ou close peut échouer. Cela n’aura pas d’impact sur le module de reconnaissance ou la reconnaissance en cours. La connexion peut tomber pour diverses raisons. Le module de reconnaissance tente toujours de rétablir la connexion en fonction des besoins pour garantir les opérations en cours. Dans tous ces casconnected/disconnected, les événements indiquent la modification du status de connexion. Notes Mise à jour dans la version 1.17.0. Constructeur à usage interne. |
ConnectionEventArgs |
Fournit des données pour l’événement ConnectionEvent. Notes Ajouté dans la version 1.2.0 Constructeur à usage interne. |
EventSignal |
Les clients peuvent se connecter au signal d’événement pour recevoir des événements, ou se déconnecter du signal d’événement pour arrêter de recevoir des événements. Constructeur à usage interne. |
KeywordRecognitionEventArgs |
Classe pour mot clé arguments d’événement de reconnaissance. Constructeur à usage interne. |
KeywordRecognitionModel |
Représente un modèle de reconnaissance mot clé. |
KeywordRecognitionResult |
Résultat d’une opération de reconnaissance mot clé. Constructeur à usage interne. |
KeywordRecognizer |
Un module de reconnaissance mot clé. |
NoMatchDetails |
Kit de développement logiciel (SDK) Microsoft Speech pour Python |
PhraseListGrammar |
Classe qui permet au runtime d’ajouter des indicateurs d’expression pour faciliter la reconnaissance vocale. Les expressions ajoutées au module de reconnaissance sont effectives au début de la reconnaissance suivante ou à la prochaine fois que le module de reconnaissance vocale doit se reconnecter au service speech. Notes Ajouté dans la version 1.5.0. Constructeur à usage interne. |
PronunciationAssessmentConfig |
Représente la configuration de l’évaluation de la prononciation Notes Ajouté dans la version 1.14.0. La configuration peut être initialisée de deux manières :
Pour plus d’informations sur les paramètres, consultez https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters |
PronunciationAssessmentPhonemeResult |
Contient le résultat de l’évaluation de la prononciation au niveau du phonème Notes Ajouté dans la version 1.14.0. |
PronunciationAssessmentResult |
Représente le résultat de l’évaluation de la prononciation. Notes Ajouté dans la version 1.14.0. Le résultat peut être initialisé à partir d’un résultat de reconnaissance vocale. |
PronunciationAssessmentWordResult |
Contient le résultat de l’évaluation de la prononciation au niveau du mot Notes Ajouté dans la version 1.14.0. |
PropertyCollection |
Classe pour récupérer ou définir une valeur de propriété à partir d’une collection de propriétés. |
RecognitionEventArgs |
Fournit des données pour l’événement RecognitionEvent. Constructeur à usage interne. |
RecognitionResult |
Informations détaillées sur le résultat d’une opération de reconnaissance. Constructeur à usage interne. |
Recognizer |
Classe de base pour différents modules de reconnaissance |
ResultFuture |
Résultat d'une opération asynchrone. constructeur privé |
SessionEventArgs |
Classe de base pour les arguments d’événement de session. Constructeur à usage interne. |
SourceLanguageRecognizer |
Un module de reconnaissance de langue source ( module de reconnaissance de langue autonome) peut être utilisé pour la détection de langue unique ou continue. Notes Ajouté dans la version 1.18.0. |
SpeechConfig |
Classe qui définit les configurations pour la reconnaissance vocale/intention et la synthèse vocale. La configuration peut être initialisée de différentes manières :
|
SpeechRecognitionCanceledEventArgs |
Classe pour les arguments d’événement annulés de reconnaissance vocale. Constructeur à usage interne. |
SpeechRecognitionEventArgs |
Classe pour les arguments d’événement de reconnaissance vocale. Constructeur à usage interne. |
SpeechRecognitionResult |
Classe de base pour les résultats de la reconnaissance vocale. Constructeur à usage interne. |
SpeechRecognizer |
Un module de reconnaissance vocale. Si vous devez spécifier des informations sur la langue source, spécifiez uniquement l’un de ces trois paramètres, language, source_language_config ou auto_detect_source_language_config. |
SpeechSynthesisBookmarkEventArgs |
Classe pour les arguments d’événement de signet de synthèse vocale. Notes Ajout dans la version 1.16.0. Constructeur pour une utilisation interne. |
SpeechSynthesisCancellationDetails |
Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. |
SpeechSynthesisEventArgs |
Classe pour les arguments d’événement de synthèse vocale. Constructeur pour une utilisation interne. |
SpeechSynthesisResult |
Résultat d’une opération de synthèse vocale. Constructeur pour une utilisation interne. |
SpeechSynthesisVisemeEventArgs |
Classe pour les arguments d’événement de visème de synthèse vocale. Notes Ajout dans la version 1.16.0. Constructeur pour une utilisation interne. |
SpeechSynthesisWordBoundaryEventArgs |
Classe pour les arguments d’événement de limite de mot de synthèse vocale. Notes Mise à jour dans la version 1.21.0. Constructeur pour une utilisation interne. |
SpeechSynthesizer |
Synthétiseur vocal. |
SyllableLevelTimingResult |
Contient le résultat du minutage de niveau syllabe Notes Ajout dans la version 1.20.0. |
SynthesisVoicesResult |
Contient des informations détaillées sur la liste des voix de synthèse récupérées. Notes Ajout dans la version 1.16.0. Constructeur pour une utilisation interne. |
VoiceInfo |
Contient des informations détaillées sur les informations vocales de synthèse. Notes Mise à jour dans la version 1.17.0. Constructeur pour une utilisation interne. |
Énumérations
AudioStreamContainerFormat |
Définit le format de conteneur de flux audio pris en charge. |
AudioStreamWaveFormat |
Représente le format spécifié dans le conteneur WAV. |
CancellationErrorCode |
Définit le code d’erreur au cas où CancellationReason est Error. |
CancellationReason |
Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé. |
NoMatchReason |
Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu. |
OutputFormat |
Format de sortie. |
ProfanityOption |
Supprime les blasphèmes (jurons) ou remplace les lettres de mots profanes par des étoiles. |
PronunciationAssessmentGradingSystem |
Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. |
PronunciationAssessmentGranularity |
Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème. |
PropertyId |
Définit les ID de propriété vocale. |
ResultReason |
Spécifie les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré. |
ServicePropertyChannel |
Définit les canaux utilisés pour passer les paramètres de propriété au service. |
SpeechSynthesisOutputFormat |
Définit les formats audio de sortie de synthèse vocale possibles. |
StreamStatus |
Définit les status possibles du flux de données audio. |
SynthesisVoiceGender |
Définit le sexe des voix de synthèse |
SynthesisVoiceType |
Définit le type de voix de synthèse |
Azure SDK for Python