Bearbeiten

Häufig gestellte Fragen zu Sprachassistenten

Wenn Sie in diesem Dokument keine Antworten auf Ihre Fragen finden, sehen Sie sich die weiteren Supportoptionen an.

Allgemein

Was ist ein Sprachassistent?

Ebenso wie Cortana ist ein Sprachassistent eine Lösung, die auf die gesprochenen Äußerungen eines Benutzers lauscht, den Inhalt dieser Äußerungen auf eine Bedeutung hin analysiert, eine oder mehrere Aktionen als Reaktion auf die Absicht der Äußerung ausführt und dann dem Benutzer eine Antwort präsentiert, die häufig eine gesprochene Komponente enthält. Es handelt sich um eine „Sprachein-/Sprachausgabe“-Funktion zur Interaktion mit einem System. Autoren von Sprach-Assistenten erstellen mithilfe des DialogServiceConnector im Speech SDK eine Anwendung auf dem Gerät, um mit einem Assistenten zu kommunizieren, der mithilfe des Toolsets Benutzerdefinierte Befehle oder mit dem Kanal Direct Line Speech von Bot Framework erstellt wurde. Diese Assistenten können benutzerdefinierte Schlüsselwörter, Custom Speech und Custom Voice verwenden, um eine auf Ihre Marke oder Ihr Produkt zugeschnittene Erfahrung zu bieten.

Sollte ich „Benutzerdefinierte Befehle“ oder „Direct Line Speech“ verwenden? Wo liegt der Unterschied?

Benutzerdefinierte Befehle ist eine Reihe von Tools mit geringer Komplexität, mit denen Sie problemlos einen Assistenten erstellen und hosten können, der für Szenarios zur Aufgabenerledigung gut geeignet ist. Direct Line Speech bietet umfangreichere, anspruchsvollere Funktionen, die stabile Konversationsszenarien ermöglichen. Weitere Informationen finden Sie im Vergleich der Assistenten-Lösungen.

Wie fange ich an?

Die beste Möglichkeit, um mit dem Erstellen einer Anwendung für benutzerdefinierte Befehle (Vorschau) oder eines grundlegenden Bot Framework-Bots zu beginnen.

Debuggen

Wo befindet sich mein Kanalgeheimnis?

Wenn Sie die Vorschauversion von Direct Line Speech verwendet haben oder die zugehörige Dokumentation lesen, erwarten Sie unter Umständen, dass auf der Direct Line Speech-Seite für die Kanalregistrierung ein geheimer Schlüssel vorhanden ist. Für v1.7 der DialogServiceConfig-Factorymethode FromBotSecret im Speech SDK wird dieser Wert ebenfalls erwartet.

In der neuesten Version von Direct Line Speech wurde der Prozess für die Kontaktaufnahme mit Ihrem Bot von einem Gerät aus vereinfacht. Auf der Seite für die Kanalregistrierung wird Ihre Direct Line Speech-Kanalregistrierung oben über die Dropdownliste einer Sprachressource zugeordnet. Nach der Zuordnung enthält Speech SDK v1.8 die BotFrameworkConfig::FromSubscription-Factorymethode, über die ein DialogServiceConnector für die Kontaktaufnahme mit dem Bot, den Sie Ihrem Abonnement zugeordnet haben, konfiguriert wird.

Falls Sie noch mit der Migration Ihrer Clientanwendung von v1.7 zu v1.8 beschäftigt sind, funktioniert DialogServiceConfig::FromBotSecret möglicherweise mit einem Wert vom Typ „nicht leer, nicht NULL“ als Kanalgeheimnisparameter, z. B. Ihrem zuvor verwendeten Geheimnis. Dieser Wert wird ignoriert, wenn ein Sprachabonnement verwendet wird, das einer neueren Kanalregistrierung zugeordnet ist. Hierbei ist es obligatorisch, dass der Wert nicht NULL und nicht leer ist. Dies wird auf dem Gerät überprüft, bevor die dienstseitige Zuordnung relevant wird.

Eine ausführlichere Anleitung finden Sie im Tutorialabschnitt, in dem die Kanalregistrierung Schritt für Schritt beschrieben wird.

Ich erhalte bei der Verbindungsherstellung eine 401-Fehlermeldung, und nichts funktioniert. Ich weiß, dass mein Speech-Ressourcenschlüssel gültig ist. Woran liegt das?

Wenn Sie Ihre Speech-Ressource im Azure-Portal verwalten, stellen Sie sicher, dass Sie die Speech-Ressource (Microsoft.CognitiveServicesSpeechServices, „Speech“) und nicht die Azure KI Services-Ressource (Microsoft.CognitiveServicesAllInOne, „Alle Azure KI Services“) verwenden. Überprüfen Sie außerdem die Spracherkennungsdienst-Unterstützung für Sprachassistenten in der Region.

correct subscription for direct line speech

Mein „DialogServiceConnector“ gibt erkannten Text zurück, es wird aber ein Fehler vom Typ 1011 angezeigt, und mein Bot reagiert nicht. Warum?

Dieser Fehler weist auf ein Kommunikationsproblem zwischen dem Assistenten und dem Sprachassistentendienst hin.

Dieser Code funktioniert trotzdem nicht, und/oder ich erhalte bei der Verwendung eines „DialogServiceConnector“ einen anderen Fehler. Wie sollte ich vorgehen?

Die dateibasierte Protokollierung bietet deutlich mehr Details und kann Supportanfragen beschleunigen. Informationen zum Aktivieren dieser Funktion finden Sie unter Verwenden der Dateiprotokollierung.