Speech Recognition not producing good results

Emmanuella Michel 5 Points de réputation
2024-06-13T17:30:16.74+00:00

Hi everyone,

I have been trying to setup an API using Python to make real-time speech recognition.

Context

I am using azure.cognitiveservices.speech library. I followed the tutorial here, using continuous recognition.

Basically, my API receives an audio stream with WebSocket protocol. The received buffer is pushed into a stream (azure.cognitiveservices.speech.audio.PushAudioInputStream). This stream is used in the AudioConfig.

Problem

The code seems to be working. However, the obtained transcript is not accurate and the result is pretty bad. I don't know why. The received stream is in PCM format, 32 bits, 1 channel, 48 Hz. I checked the integrity of the data by saving an audio file: nothing to report, the audio is perfectly audible and of good quality.

Code

This is the main code that I am using. The Transcription class is instanciated when the WebSocket connection opens, then the audio data is pushed thanks to the push_data() method, in a loop.

import azure.cognitiveservices.speech as speechsdk

speech_key = os.environ.get('SPEECH_KEY')
speech_region = os.environ.get('SPEECH_REGION')
language = "fr-FR"


class Transcription:
    def __init__(self):
        speech_config = speechsdk.SpeechConfig(subscription=speech_key, region=speech_region)
        speech_config.speech_recognition_language=language

        # setup the audio stream
        audio_format = speechsdk.audio.AudioStreamFormat(samples_per_second=48000, bits_per_sample=32, channels=1)
        self.stream = speechsdk.audio.PushAudioInputStream(audio_format)
        audio_config = speechsdk.audio.AudioConfig(stream=self.stream)

        # instantiate the speech recognizer with push stream input
        self.speech_recognizer = speechsdk.SpeechRecognizer(speech_config=speech_config, audio_config=audio_config)

        # Connect callbacks to the events fired by the speech recognizer
        self.speech_recognizer.recognizing.connect(lambda evt: print('RECOGNIZING...: {}'.format(evt)))
        self.speech_recognizer.recognized.connect(lambda evt: print('RECOGNIZED: {}'.format(evt)))
        self.speech_recognizer.session_started.connect(lambda evt: print('SESSION STARTED: {}'.format(evt)))
        self.speech_recognizer.session_stopped.connect(self.stop)
        self.speech_recognizer.canceled.connect(self.stop)

    def start(self):
        self.speech_recognizer.start_continuous_recognition()

    def stop(self, evt="forced stop"):
        print('CLOSING on {}'.format(evt))
        self.stream.close()
        self.speech_recognizer.stop_continuous_recognition()

    def push_data(self, frames):
        self.stream.write(frames)

Call-to-help

Do you have any idea of where this problem comes from? I would gladly take any suggestion to help me through this issue.

Thank you in advance.

Azure
Azure
Plateforme et infrastructure de cloud computing pour la génération, le déploiement et la gestion d’applications et de services à travers un réseau mondial de centres de données gérés par Microsoft.
321 questions
{count} votes

8 réponses

Trier par : Le plus utile
  1. Emmanuella Michel 5 Points de réputation
    2024-06-28T20:18:55.5533333+00:00

    Bonjour Alexis,

    Merci pour votre réponse.

    Après avoir manipulé les données audio pour changer le format, j'ai trouvé la solution.

    L'audio que j'utilise est au format suivant :

    non-interleaved IEEE754 32-bit linear PCM with a nominal range between -1 and +1, that is, a 32-bit floating point buffer, with each sample between -1.0 and 1.0.

    Il s'agit en fait du flux contenu dans l'objet AudioBuffer de l'API Web Audio. Comme vous pouvez le constater, j'ai bien spécifié ce format dans AudioStreamFormat.

    Cependant, un détail que la documentation d'Azure ne souligne pas (je n'ai pas trouvé de mention de cela), c'est qu'Azure Speech SDK attende un encodage en entiers. Or, les données audio dont je dispose sont encodés en flottants (Float32Array en Javascript). Il faut donc convertir les données en utilisant un encodage en entiers. La signature sur 32 bits et la fréquence d'échantillonnage de 48 kHz peuvent être conservés, tant que cela est bien spécifié dans AudioStreamFormat.

    La conversion en entiers a résolu le problème et la transcription fonctionne très bien désormais.

    Je trouve que la documentation d'Azure mérite d'être plus claire sur les formats audio compatibles.

    En espérant que cela puisse en aider d'autres !

    1 personne a trouvé cette réponse utile.

  2. Alexis Thorez 10,970 Points de réputation
    2024-06-14T06:50:52.6066667+00:00

    Bonjour,

    Merci d'avoir sollicité la communauté Q&A France.

    Il y a plusieurs facteurs qui pourraient affecter la qualité de la transcription.

    • Assurez-vous que le format audio est compatible avec le service de reconnaissance vocale. Par exemple, le format “riff-8khz-8bit-mono-alaw” est connu pour avoir une qualité sonore médiocre. Vous pourriez essayer d’autres formats pour voir si cela améliore la qualité de la transcription.
    • Le service de reconnaissance vocale de Microsoft met à jour ses modèles de temps en temps. Il est possible que ces mises à jour aient affecté la qualité de la reconnaissance. Vous pouvez essayer de contacter le support de Microsoft pour obtenir plus d’informations à ce sujet.
    • Même si l’audio est audible pour l’oreille humaine, il se peut qu’il y ait du bruit de fond ou d’autres interférences qui affectent la qualité de la transcription. Vous pourriez essayer d’améliorer la qualité du signal audio en réduisant le bruit de fond, en augmentant le volume de la voix, etc.
    • Les performances de la reconnaissance vocale peuvent varier en fonction de la région. Si vous avez des utilisateurs dans différentes régions, vous pourriez essayer de configurer le service pour utiliser le modèle de langue spécifique à chaque région

    En complément voici quelques liens forum qui traitent du sujet:

    A bientôt

    Alexis

    Si cette réponse a répondu à votre question, veuillez « Accepter comme réponse » et voter en utilisant « Pouce levé » afin que la pertinence de ce message s’améliore lorsque quelqu’un dans la communauté recherche une requête similaire.


  3. Deleted

    Cette réponse a été supprimée en raison d’une violation de notre Code de conduite. La réponse a été signalée manuellement ou identifiée via la détection automatisée avant que l’action ne soit entreprise. Pour obtenir plus d’informations, veuillez consulter notre Code de conduite.


    Les commentaires ont été désactivés. En savoir plus

  4. Deleted

    Cette réponse a été supprimée en raison d’une violation de notre Code de conduite. La réponse a été signalée manuellement ou identifiée via la détection automatisée avant que l’action ne soit entreprise. Pour obtenir plus d’informations, veuillez consulter notre Code de conduite.


    Les commentaires ont été désactivés. En savoir plus

  5. Deleted

    Cette réponse a été supprimée en raison d’une violation de notre Code de conduite. La réponse a été signalée manuellement ou identifiée via la détection automatisée avant que l’action ne soit entreprise. Pour obtenir plus d’informations, veuillez consulter notre Code de conduite.


    Les commentaires ont été désactivés. En savoir plus

Votre réponse

Les réponses peuvent être marquées comme Réponses acceptées par l’auteur de la question, ce qui permet aux utilisateurs de connaître la réponse qui a résolu le problème de l’auteur.