Traduire la reconnaissance vocale
Le modèle de traduction vocale avec le kit SDK Azure AI Speech est semblable à la reconnaissance vocale, à laquelle sont ajoutées des informations sur les langues source et cible pour la traduction :
Utilisez un objet SpeechTranslationConfig pour encapsuler les informations de connexion à votre ressource Azure AI Speech. plus précisément son emplacement et sa clé.
L’objet SpeechTranslationConfig peut également être utilisé pour spécifier la langue de reconnaissance vocale (langue parlée en entrée) et les langues cibles dans lesquelles elle doit être traduite.
Si vous le souhaitez, utilisez un objet AudioConfig pour définir la source d’entrée de l’audio à transcrire. Il s’agit par défaut du microphone système par défaut, mais vous pouvez également spécifier un fichier audio.
Utilisez les objets SpeechTranslationConfig et AudioConfig pour créer un objet TranslationRecognizer. Cet objet est un client de proxy de l’API de traduction du service Speech d’Azure AI.
Utilisez les méthodes de l’objet TranslationRecognizer pour appeler les fonctions API sous-jacentes. Par exemple, la méthode RecognizeOnceAsync() utilise le service Speech d’Azure AI pour traduire de manière asynchrone un seul énoncé parlé.
Traitez la réponse du service Speech d’Azure AI. Dans le cas de la méthode RecognizeOnceAsync(), le résultat est un objet SpeechRecognitionResult qui inclut les propriétés suivantes :
- Duration
- OffsetInTicks
- Propriétés
- Motif
- ResultId
- Texte
- Translations
Si l’opération a réussi, la propriété Reason a la valeur énumérée RecognizedSpeech, et la propriété Text contient la transcription dans la langue d’origine. Vous pouvez également accéder à une propriété Translations qui contient un dictionnaire des traductions (en utilisant comme clé le code de langue ISO à deux caractères, par exemple « fr » pour le français).