Microsoft.CognitiveServices.Speech Espace de noms
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
Classes
AudioDataStream |
Fournit des données audio sous forme de flux. Ajouté dans la version 1.4.0 |
AutoDetectSourceLanguageConfig |
Configure les options pour la détection automatique des langues. Mise à jour dans la version 1.13.0 |
AutoDetectSourceLanguageResult |
Contient les langues détectées par le service Speech. Ajouté dans la version 1.9.0 |
CancellationDetails |
Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. |
ClassLanguageModel |
Représente une liste de grammaires pour les scénarios de grammaire dynamique. Ajouté dans la version 1.7.0 |
Connection |
Classe proxy pour la gestion de la connexion au service speech du recognizer spécifié. Ajouté dans la version 1.2.0 |
ConnectionEventArgs |
Contient la charge utile pour les événements connectés/déconnectés ajoutés dans la version 1.2.0 |
ConnectionMessage |
Représente les messages spécifiques à l’implémentation envoyés au service speech et reçus à partir du service speech. Pour le débogage uniquement. Ajouté dans la version 1.10.0 |
ConnectionMessageEventArgs |
Contient une charge utile pour les événements MessageReceived d’un instance de connexion. Ajouté dans la version 1.10.0 |
DetailedSpeechRecognitionResult |
Contient des détails de reconnaissance, notamment le score de confiance, le texte reconnu, la forme lexicale brute, la forme normalisée et la forme normalisée avec des grossièretés masquées. Modifié dans la version 1.7.0 |
EmbeddedSpeechConfig |
Classe qui définit la configuration vocale incorporée (hors connexion). |
Grammar |
Représente la grammaire de la classe de base pour la personnalisation de la reconnaissance vocale. Ajouté dans la version 1.5.0 |
GrammarList |
Représente une liste de grammaires pour les scénarios de grammaire dynamique. Ajouté dans la version 1.7.0 |
GrammarPhrase |
Représente une expression qui peut être prononcée par l’utilisateur. Ajouté dans la version 1.5.0 |
HybridSpeechConfig |
Classe qui définit des configurations hybrides (cloud et incorporées) pour la reconnaissance vocale et la synthèse vocale. |
KeywordRecognitionEventArgs |
Classe pour les événements émis par .KeywordRecognizer |
KeywordRecognitionModel |
Représente mot clé modèle de reconnaissance qui peut déclencher un événement lorsque des mots clés prédéfinis sont prononcés. |
KeywordRecognitionResult |
Contient les résultats émis par .KeywordRecognizer |
KeywordRecognizer |
Reconnaît un mot ou une phrase courte à l’aide d’un modèle mot clé. |
NoMatchDetails |
Contient des informations détaillées sur les résultats de la reconnaissance NoMatch. |
PhonemeLevelTimingResult |
Résultat du minutage du niveau de phonème. Ajouté dans la version 1.14.0 |
PhraseListGrammar |
Identifie les expressions connues dans les données audio. Ajouté dans la version 1.5.0 |
PronunciationAssessmentNBestPhoneme |
Résultat du phonème nbest de l’évaluation de la prononciation Ajouté dans 1.20.0 |
PropertyCollection |
Classe pour récupérer ou définir une valeur de propriété à partir d’une collection de propriétés. |
RecognitionEventArgs |
Contient une charge utile pour les événements de reconnaissance tels que Le début/la fin de la reconnaissance vocale détecté. |
RecognitionResult |
Contient des informations détaillées sur le résultat d’une opération de reconnaissance. |
Recognizer |
Classe de base qui contient principalement des gestionnaires d’événements courants. |
SessionEventArgs |
Contient une charge utile pour SessionStarted les événements et .SessionStopped |
SourceLanguageConfig |
Configuration de la langue source. Ajouté dans la version 1.17.0 |
SourceLanguageRecognizer |
Détecte la langue parlée sur l’audio d’entrée. Ajouté dans la version 1.17.0 |
SpeechConfig |
Informations sur votre abonnement, notamment votre clé et votre région, votre point de terminaison, votre hôte ou votre jeton d’autorisation. |
SpeechRecognitionCanceledEventArgs |
Contient la charge utile des événements de résultat annulés de reconnaissance vocale. |
SpeechRecognitionEventArgs |
Contient la charge utile des événements de reconnaissance vocale/reconnus. |
SpeechRecognitionModel |
Informations sur le modèle de reconnaissance vocale. |
SpeechRecognitionResult |
Contient le résultat de la reconnaissance vocale. |
SpeechRecognitionResultExtensions |
Méthodes d’extension pour le résultat de la reconnaissance vocale |
SpeechRecognizer |
Transcrit la parole en texte. La voix peut arriver par le biais d’un microphone, d’un fichier audio ou d’un autre flux d’entrée audio. |
SpeechSynthesisBookmarkEventArgs |
Contient un événement de signet dans la synthèse vocale. Ajouté dans la version 1.16.0 |
SpeechSynthesisCancellationDetails |
Contient des informations détaillées sur la raison pour laquelle un résultat de synthèse vocale a été annulé. Ajouté dans la version 1.4.0 |
SpeechSynthesisEventArgs |
Contient la charge utile des événements de synthèse vocale. Ajouté dans la version 1.4.0 |
SpeechSynthesisResult |
Contient des informations détaillées sur le résultat d’une opération de synthèse vocale. Ajouté dans la version 1.4.0 |
SpeechSynthesisVisemeEventArgs |
Contient des événements de pose faciale qui correspondent à des décalages basés sur le temps dans la parole synthétisée. Ajouté dans la version 1.16.0 |
SpeechSynthesisWordBoundaryEventArgs |
Contient des détails sur l’emplacement et la longueur des mots dans la synthèse vocale. Ajouté dans la version 1.7.0 |
SpeechSynthesizer |
Effectue la synthèse vocale vers un haut-parleur, un fichier ou d’autres flux de sortie audio, et obtient ainsi un audio synthétisé. Mise à jour dans la version 1.16.0 |
SpeechTranslationConfig |
Configuration de la traduction vocale. |
SpeechTranslationModel |
Informations sur le modèle de traduction vocale. |
SyllableLevelTimingResult |
Résultat du minutage de niveau syllabe. Ajouté dans la version 1.20.0 |
SynthesisVoicesResult |
Contient des informations détaillées sur la liste des voix de synthèse récupérées. Ajouté dans la version 1.16.0 |
VoiceInfo |
Contient des informations détaillées sur la voix de synthèse. Mise à jour dans la version 1.17.0 |
WordLevelTimingResult |
Pour un mot reconnu dans l’audio vocal, contient le décalage par rapport au début et à la durée, en cases. 1 coche = 100 ns. Ajouté dans la version 1.7.0 |
Énumérations
CancellationErrorCode |
Répertorie les codes d’erreur possibles quand CancellationReason est Error. Ajouté dans la version 1.1.0 |
CancellationReason |
Répertorie les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé. |
NoMatchReason |
Répertorie les raisons possibles pour lesquelles un résultat de reconnaissance n’a pas été reconnu. |
OutputFormat |
Format de sortie. |
ProfanityOption |
Supprime les grossièretés (jurons) ou remplace les lettres de mots profanes par des étoiles. Ajouté dans la version 1.5.0 |
PropertyId |
Répertorie les ID de propriété speech. |
RecognitionFactorScope |
Répertorie l’étendue à laquelle s’applique un facteur de reconnaissance. |
ResultReason |
Décrit un résultat de reconnaissance. |
ServicePropertyChannel |
Répertorie les canaux utilisés pour transmettre les paramètres de propriété au service. Ajouté dans la version 1.5.0 |
SpeechSynthesisBoundaryType |
Définit le type de limite de l’événement de limite de synthèse vocale ajouté dans la version 1.21.0 |
SpeechSynthesisOutputFormat |
Répertorie les formats audio de sortie de synthèse. |
StreamStatus |
Répertorie les valeurs status possibles d’un flux de données audio. Ajouté dans la version 1.4.0 |
SynthesisVoiceGender |
Répertorie le sexe de la voix de synthèse. Ajouté dans la version 1.17.0 |
SynthesisVoiceType |
Répertorie les types de voix de synthèse. |
Azure SDK for .NET