Erstellen eines Sprach-Assistenten ohne Code in Azure Percept Studio

Wichtig

Einstellung von Azure Percept DK:

Update vom 9. November 2022: Ein Firmwareupdate, mit dem Vision SoM und Audio SOM ihre Funktionalität mit dem DK über das Ausmusterungsdatum hinaus beibehalten können, wird vor dem Ausmusterungsdatum zur Verfügung gestellt.

Die Public Preview von Azure Percept wird weiterentwickelt und soll neue Edgegeräteplattformen und Entwicklerfunktionen unterstützen. Im Rahmen dieser Weiterentwicklung werden Azure Percept DK und Audio Accessory sowie die zugehörigen unterstützenden Azure-Dienste für Percept DK am 30. März 2023 eingestellt.

Ab dem 30. März 2023 werden Azure Percept DK und Audio Accessory von keinem Azure-Dienst mehr unterstützt, einschließlich Azure Percept Studio, Betriebssystemupdates, Containerupdates, Anzeige von Webstreams und Custom Vision-Integration. Ab diesem Zeitpunkt bietet Microsoft keinen Kundenerfolgssupport und keine unterstützenden Dienste mehr. Weitere Informationen finden Sie im Blogbeitrag zur Außerbetriebnahme.

In diesem Tutorial erstellen Sie einen Sprach-Assistenten aus einer Vorlage, den Sie für Ihr Azure Percept DK und für Azure Percept-Audio verwenden können. Die Demo für den Sprach-Assistenten wird in Azure Percept Studio ausgeführt und enthält eine Auswahl virtueller Objekte, die per Sprache gesteuert werden. Sagen Sie Ihr Schlüsselwort, um ein Objekt zu steuern. Beim Schlüsselwort handelt es sich um ein Wort oder einen kurzen Ausdruck, mit dem Sie Ihr Gerät aufwecken, gefolgt von einem Befehl. Jede Vorlage reagiert auf verschiedene spezifische Befehle.

In diesem Leitfaden wird Schritt für Schritt der Prozess zum Einrichten Ihrer Geräte, Erstellen eines Sprach-Assistenten und der benötigten Ressourcen für Speech-Dienste, Testen des Sprach-Assistenten, Konfigurieren Ihres Schlüsselworts und Erstellen von benutzerdefinierten Schlüsselwörtern beschrieben.

Voraussetzungen

Erstellen eines Sprach-Assistenten mit einer verfügbaren Vorlage

  1. Navigieren Sie zu Azure Percept Studio.

  2. Öffnen Sie die Registerkarte Demos und Tutorials.

    Screenshot: Startseite des Azure-Portals

  3. Klicken Sie unter Sprachtutorials und -demos auf Sprach-Assistenten-Vorlagen ausprobieren. Auf der rechten Seite des Bildschirms wird ein Fenster geöffnet.

  4. Gehen Sie im Fenster wie folgt vor:

    1. Wählen Sie im Dropdownmenü IoT Hub den IoT-Hub aus, mit dem Ihr DevKit verbunden ist.

    2. Wählen Sie im Dropdownmenü Gerät Ihr DevKit aus.

    3. Wählen Sie eine der verfügbaren Sprach-Assistenten-Vorlagen aus.

    4. Klicken Sie auf das Kontrollkästchen Ich stimme den Bestimmungen für dieses Projekt zu.

    5. Klicken Sie auf Erstellen.

    Screenshot: Erstellung einer Vorlage für den Sprach-Assistenten

  5. Nach dem Klicken auf Erstellen wird im Portal ein neues Fenster geöffnet, in dem Sie Ihre Sprachdesignressource erstellen können. Gehen Sie im Fenster wie folgt vor:

    1. Wählen Sie im Feld Abonnement Ihr Azure-Abonnement aus.

    2. Wählen Sie im Dropdownmenü Ressourcengruppe Ihre bevorzugte Ressourcengruppe aus. Klicken Sie unter dem Dropdownmenü auf Erstellen, und befolgen Sie die Aufforderungen, wenn Sie eine neue Ressourcengruppe für Ihren Sprach-Assistenten erstellen möchten.

    3. Geben Sie unter Anwendungspräfix einen Namen ein. Dies ist das Präfix für Ihr Projekt und den Namen Ihres benutzerdefinierten Befehls.

    4. Wählen Sie unter Region die Region aus, in der Ressourcen bereitgestellt werden sollen.

    5. Wählen Sie unter Tarif für LUIS-Vorhersagen die Option Standard aus (im Free-Tarif werden Sprachanforderungen nicht unterstützt).

    6. Klicken Sie auf die Schaltfläche Erstellen. Ressourcen für die Sprach-Assistenten-Anwendung werden unter Ihrem Abonnement bereitgestellt.

      Warnung

      Schließen Sie das Fenster NICHT, bevor die Bereitstellung der Ressource im Portal abgeschlossen ist. Das vorzeitige Schließen des Fensters kann für den Sprach-Assistenten zu unerwartetem Verhalten führen. Nachdem Ihre Ressource bereitgestellt wurde, wird die Demo angezeigt.

    Screenshot: Fenster zum Auswählen von Abonnement und Ressourcengruppe

Testen Ihres Sprach-Assistenten

Sagen Sie zum Interagieren mit Ihrem Sprach-Assistenten das Schlüsselwort, und nennen Sie dann einen Befehl. Wenn das akustische SoM Ihr Schlüsselwort erkennt, gibt das Gerät einen Glockenton aus (den Sie hören, wenn Lautsprecher oder Kopfhörer angeschlossen sind), und die LEDs blinken blau. Die LEDs blinken schnell nacheinander blau auf, während Ihr Befehl verarbeitet wird. Die Antwort des Sprach-Assistenten auf Ihren Befehl wird in Textform im Demofenster und als Ton über Ihre Lautsprecher bzw. Kopfhörer ausgegeben. Als Standardschlüsselwort (neben Benutzerdefiniertes Schlüsselwort) ist „Computer“ festgelegt. Jede Vorlage verfügt über verschiedene kompatible Befehle, mit denen Sie mit virtuellen Objekten im Demofenster interagieren können. Wenn Sie beispielsweise die Demo für das Hotel- und Gaststättengewerbe oder das Gesundheitswesen verwenden möchten, sagen Sie „Computer, turn on TV“ (Computer, Fernseher einschalten), um den virtuellen Fernseher einzuschalten.

Screenshot: Fenster mit der Demo für das Hotel- und Gaststättengewerbe

Demo für Hotel- und Gaststättengewerbe und Gesundheitswesen: Befehle

Die Demos für „Gesundheitswesen“ und für „Hotel- und Gaststättengewerbe“ verfügen jeweils über virtuelle Fernseher, Beleuchtung, Jalousien und Thermostate, mit denen Sie interagieren können. Die folgenden Befehle (und zusätzliche Varianten) werden unterstützt:

  • „Turn on/off the lights.“ (Licht ein-/ausschalten.)
  • „Turn on/off the TV.“ (Fernseher ein-/ausschalten.)
  • „Turn on/off the AC.“ (Klimaanlage ein-/ausschalten.)
  • „Open/close the blinds.“ (Jalousien öffnen/schließen.)
  • „Set temperature to X degrees.“ (Temperatur auf X Grad festlegen.) Dabei ist X ist die gewünschte Temperatur, z. B. 75.

Screenshot: Fenster mit der Demo für das Gesundheitswesen

Demo für Automobilindustrie: Befehle

Die Demo für „Automobilindustrie“ umfasst eine Sitzheizung, eine Scheibenheizung und einen Thermostat als virtuelle Elemente, mit denen Sie interagieren können. Die folgenden Befehle (und zusätzliche Varianten) werden unterstützt:

  • „Turn on/off the defroster.“ (Scheibenheizung ein-/ausschalten.)
  • „Turn on/off the seat warmer.“ (Sitzheizung ein-/ausschalten.)
  • „Set temperature to X degrees.“ (Temperatur auf X Grad festlegen.) Dabei ist X ist die gewünschte Temperatur, z. B. 75.
  • „Increase/decrease the temperature by Y degrees.“ (Temperatur um Y Grad erhöhen/verringern.)

Screenshot: Fenster mit der Demo für die Automobilindustrie

Demo für Bestandsverwaltung: Befehle

Die Demo für die Bestandsverwaltung verfügt über verschiedene virtuelle Kisten in blauer, gelber und grüner Farbe, mit denen Sie über eine App für die virtuelle Bestandsverwaltung interagieren können. Die folgenden Befehle (und zusätzliche Varianten) werden unterstützt:

  • „Add/remove X boxes.“ (X Kisten hinzufügen/entfernen.) Dabei ist X die Anzahl der Kisten, z. B. 4.
  • „Order/ship X boxes.“ (X Kisten bestellen/versenden.)
  • „How many boxes are in stock?“ (Wie viele Kisten sind auf Lager?)
  • „Count Y boxes.“ (Y Kisten zählen.) Dabei ist Y die Farbe der Kisten, z. B. Gelb.
  • „Ship everything in stock.“ (Gesamten Bestand versenden.)

Screenshot: Fenster mit der Demo für die Bestandsverwaltung

Konfigurieren des Schlüsselworts

Sie können das Schlüsselwort für Ihren Sprach-Assistenten anpassen.

  1. Klicken Sie im Demofenster neben Benutzerdefiniertes Schlüsselwort auf Ändern.

  2. Wählen Sie eins der verfügbaren Schlüsselwörter aus. Zur Auswahl stehen verschiedene vordefinierte Schlüsselwörter sowie die von Ihnen erstellten benutzerdefinierten Schlüsselwörter.

  3. Klicken Sie auf Speichern.

Erstellen eines benutzerdefinierten Schlüsselworts

Sie können ein eigenes Schlüsselwort für Ihre Sprachanwendung erstellen. Das Trainieren für Ihr benutzerdefiniertes Schlüsselwort dauert nur wenige Minuten.

  1. Klicken Sie im oberen Bereich des Demofensters auf + Benutzerdefiniertes Schlüsselwort erstellen.

  2. Geben Sie das gewünschte Schlüsselwort ein. Hierbei kann es sich um ein einzelnes Wort oder um einen kurzen Ausdruck handeln.

  3. Wählen Sie Ihre Speech-Ressource aus (wird im Demofenster neben Benutzerdefinierter Befehl angezeigt und enthält Ihr Anwendungspräfix).

  4. Klicken Sie auf Speichern.

Erstellen eines benutzerdefinierten Befehls

Das Portal enthält auch Funktionen zum Erstellen von benutzerdefinierten Befehlen mit vorhandenen Sprachressourcen. Der Begriff „Benutzerdefinierter Befehl“ bezieht sich auf den Sprach-Assistenten selbst, und nicht auf einen bestimmten Befehl in der vorhandenen Anwendung. Mit der Erstellung eines benutzerdefinierten Befehls erstellen Sie auch ein neues Sprachprojekt, das Sie dann in Speech Studio weiterentwickeln müssen.

Klicken Sie zum Erstellen eines neuen benutzerdefinierten Befehls im Demofenster oben auf der Seite auf + Benutzerdefinierten Befehl erstellen, und gehen Sie dann wie folgt vor:

  1. Geben Sie einen Namen für Ihren benutzerdefinierten Befehl ein.

  2. Geben Sie eine Beschreibung Ihres Projekts ein (optional).

  3. Wählen Sie Ihre bevorzugte Sprache aus.

  4. Wählen Sie Ihre Sprachressource aus.

  5. Wählen Sie Ihre LUIS-Ressource aus.

  6. Wählen Sie Ihre LUIS-Erstellungsressource aus, oder erstellen Sie eine neue.

  7. Klicken Sie auf Erstellen.

Screenshot: Fenster für die Erstellung benutzerdefinierter Befehle

Nachdem Sie einen benutzerdefinierten Befehl erstellt haben, müssen Sie für die weitere Entwicklung zu Speech Studio wechseln. Führen Sie die folgenden Schritte aus, falls Sie Speech Studio öffnen und Ihr benutzerdefinierter Befehl nicht angezeigt wird:

  1. Klicken Sie in Azure Percept Studio im linken Bereich unter KI-Projekte auf Sprache.

  2. Wählen Sie die Registerkarte Befehle aus.

    Screenshot: Liste mit benutzerdefinierten Befehlen, die bearbeitet werden können

  3. Wählen Sie den benutzerdefinierten Befehl aus, den Sie weiterentwickeln möchten. Das Projekt wird in Speech Studio geöffnet.

    Screenshot: Startseite von Speech Studio

Weitere Informationen zur Entwicklung von benutzerdefinierten Befehlen finden Sie in der Dokumentation zum Speech-Dienst.

Problembehandlung

Sprach-Assistent wurde erstellt, reagiert aber nicht auf Befehle

Überprüfen Sie die LEDs der Interposer-Platine:

  • Mit drei dauerhaft blau leuchtenden LEDs wird angezeigt, dass der Sprach-Assistent bereit ist und auf das Schlüsselwort wartet.
  • Wenn die mittlere LED (L02) weiß leuchtet, wurde die Initialisierung vom DevKit abgeschlossen, und die Konfiguration mit einem Schlüsselwort ist erforderlich.
  • Wenn die mittlere LED (L02) weiß blinkt, ist die Initialisierung des Audio-SOM noch nicht abgeschlossen. Der Initialisierungsvorgang kann einige Minuten dauern.

Weitere Informationen zu den LED-Anzeigen finden Sie im Artikel zu den LEDs.

Sprach-Assistent reagiert nicht auf ein benutzerdefiniertes Schlüsselwort, das in Speech Studio erstellt wurde

Dies kann passieren, wenn das Sprachmodul veraltet ist. Führen Sie die folgenden Schritte aus, um das Sprachmodul auf die neueste Version zu aktualisieren:

  1. Klicken Sie auf der Startseite von Azure Percept Studio im Menü auf der linken Seite auf Geräte.

  2. Suchen Sie nach Ihrem Gerät, und wählen Sie es aus.

    Screenshot: Geräteliste in Azure Percept Studio

  3. Wählen Sie im Gerätefenster die Registerkarte Sprache aus.

  4. Überprüfen Sie die Version des Sprachmoduls. Wenn ein Update verfügbar ist, wird neben der Versionsnummer die Schaltfläche Update angezeigt.

  5. Klicken Sie auf Update, um das Update für das Sprachmodul bereitzustellen. Es dauert normalerweise zwei bis drei Minuten, bis der Updatevorgang abgeschlossen ist.

Bereinigen von Ressourcen

Wenn Sie mit der Arbeit an Ihrer Sprach-Assistenten-Anwendung fertig sind, ist es ratsam, die im Rahmen dieses Tutorials bereitgestellten Sprachressourcen mit den folgenden Schritten zu bereinigen:

  1. Wählen Sie im Azure-Portal im Menü auf der linken Seite die Option Ressourcengruppen aus, oder geben Sie ihren Namen in der Suchleiste ein.

    Screenshot: Startseite des Azure-Portals mit linkem Menübereich und Ressourcengruppen

  2. Wählen Sie Ihre Ressourcengruppe aus.

  3. Wählen Sie alle sechs Ressourcen aus, die Ihr Anwendungspräfix enthalten, und klicken Sie im oberen Menübereich auf das Symbol Löschen.
    Screenshot: Zum Löschen ausgewählte Speech-Ressourcen

  4. Geben Sie zum Bestätigen des Löschvorgangs im entsprechenden Feld Ja ein, vergewissern Sie sich, dass Sie die richtigen Ressourcen ausgewählt haben, und klicken Sie auf Löschen.

    Screenshot: Bestätigungsfenster für den Löschvorgang

Warnung

Hierbei werden alle benutzerdefinierten Schlüsselwörter entfernt, die mit den von Ihnen gelöschten Sprachressourcen erstellt wurden, und die Demo für den Sprach-Assistenten funktioniert nicht mehr.

Nächste Schritte

Nachdem Sie nun ohne Code eine Sprachlösung erstellt haben, können Sie versuchen, eine Vision-Lösung ohne Code für Ihr Azure Percept DK zu erstellen.