Erstellen einer Spracherkennungsanwendung mit Single-Shot-Erkennung

Abgeschlossen

In der vorherigen Übung haben Sie erfahren, wie Sie mithilfe der Azure-Befehlszeilenschnittstelle ein Azure KI Services-Konto erstellen. Sie verfügen nun über ein Azure KI Services-Konto und können Sie mit der Arbeit an Ihrer Spracherkennungsanwendung beginnen.

Ihre erste Herausforderung besteht darin, eine Anwendung zu erstellen, die Ihr Unternehmen zur Transkription der kurzen Memos Ihrer medizinischen Kunden verwenden kann. Azure KI Services bietet zwei verschiedene Arten der Spracherkennung, die Sie für Ihre Entwicklung verwenden können:

  • Einzelerkennung

    • Die Single-Shot-Erkennung wartet auf eine Unterbrechung in der Audiowiedergabe und stoppt dann die Erkennung. Es werden nur maximal 15 Sekunden der Audiodaten verarbeitet.

    • Diese Art der Erkennung eignet sich gut für die kurzen Memos, die die medizinischen Kunden Ihres Unternehmens liefern, aber nicht für die längeren Diktate.

    • Die Single-Shot-Erkennung ist einfacher in Ihre Anwendung zu implementieren, aber Sie haben weniger Kontrollmöglichkeiten.

  • Kontinuierliche Erkennung

    • Die kontinuierliche Erkennung hört so lange zu, bis die Erkennung beendet wird.

    • Diese Art der Erkennung eignet sich sowohl für kurze Memos als auch für längere Diktate.

    • Die kontinuierliche Erkennung erfordert mehr Code für die Implementierung in Ihrer Anwendung, aber Sie haben mehr Kontrollmöglichkeiten.

In der nächsten Übung verwenden Sie Einzelerkennung, um eine Anwendung zu erstellen, mit der Sie die kurzen Memos der medizinischen Kunden Ihres Unternehmens transkribieren können. Später in diesem Modul verwenden Sie die kontinuierliche Erkennung zum Erstellen einer Anwendung, mit der Sie sowohl kurze Memos als auch längere Diktate transkribieren können.

Erstellen einer Anwendung mit Single-Shot-Erkennung zum Transkribieren von Audiodateien

Zum Erstellen einer Anwendung, die mithilfe der Einzelerkennung von Azure KI Speech Sprache in Text konvertiert, müssen die folgenden Aufgaben ausgeführt werden:

  • Schließen Sie das Paket Microsoft.CognitiveServices.Speech ein.

  • Erstellen Sie eine SpeechConfig-Klasse mit dem API-Schlüssel aus Ihrem Azure KI Services-Konto.

  • Erstellen Sie eine AudioConfig-Klasse mit einer WAVE-Datei als Quelle.

  • Erstellen Sie eine SpeechRecognizer-Klasse mit den SpeechConfig- und AudioConfig-Klassen.

  • Rufen Sie die Methode RecognizeOnceAsync() der Klasse SpeechRecognizer auf, um die Sprache in Text zu konvertieren.

  • Erstellen Sie eine StreamWriter-Klasse, um den konvertierten Text in eine Datei zu schreiben.

In der nächsten Übung werden wir uns all diese Schritte ausführlich ansehen.