Einführung
Azure KI Speech stellt APIs bereit, mit denen Sie sprachaktivierte Anwendungen erstellen können. Dies umfasst:
- Spracherkennung: eine API, die Spracherkennung ermöglicht, sodass Ihre Anwendung gesprochene Eingaben akzeptieren kann.
- Sprachsynthese: Eine API, die Sprachsynthese ermöglicht, in der Ihre Anwendung gesprochene Ausgaben bereitstellen kann.
- Sprachübersetzung: Eine API, mit der Sie gesprochene Eingaben in mehrere Sprachen übersetzen können.
- Sprechererkennung: Eine API, mit der Ihre Anwendung einzelne Sprecher anhand ihrer Stimme erkennen kann.
- Absichtserkennung: eine API, die CLU (Conversational Language Understanding) verwendet, um die semantische Bedeutung gesprochener Eingaben zu bestimmen.
Dieses Modul konzentriert sich auf Spracherkennung und Sprachsynthese, die Kernfunktionen jeder sprachaktivierten Anwendung sind.
In diesem Modul lernen Sie Folgendes:
- Bereitstellen einer Azure-Ressource für den Azure KI Speech-Dienst
- Verwenden der Spracherkennungs-API zum Implementieren von Spracherkennung
- Verwenden der Sprachsynthese-API zum Implementieren von Sprachsynthese
- Konfigurieren des Audioformats und der Stimmen
- Verwenden von SSML (Speech Synthesis Markup Language)
Die Lerneinheiten des Moduls enthalten wichtige konzeptionelle Informationen über Azure KI Speech und zur Verwendung der zugehörigen API über eines der unterstützten Software Development Kits (SDKs). Anschließend können Sie Azure KI Speech in einer praktischen Übung selbst ausprobieren. Um die praktische Übung abschließen zu können, benötigen Sie ein Microsoft Azure-Abonnement. Wenn Sie noch keines haben, können Sie sich unter https://azure.com/free für eine kostenlose Testversion registrieren.