Freigeben über


Effektive Sprachverständnis entwerfen

Natürliches Sprachverständnis (NLU) steht im Mittelpunkt der Art und Weise, wie Copilot-Studio-Agenten Nutzeranfragen verstehen und relevante, kontextuelle Antworten liefern. Ein klar definierter Ansatz zur Absichtserkennung, Entitätenextraktion und Fallback-Handling stellt sicher, dass Agenten effiziente, natürliche Gespräche führen, die mit den Geschäftsbedürfnissen übereinstimmen.

Wenn ein Nutzer etwas an einen Agenten eingibt, spricht man von einer Äußerung. Der Agent muss diese Äußerung in Absicht und Entitäten unterteilen, sodass die Reaktion des Agenten sowohl natürlich als auch effizient wirkt.

Was ist Sprachverständnis?

Sprachverständnis (LU) ist ein Teilgebiet der natürlichen Sprachverarbeitung (NLP), das darauf abzielt, Maschinen zu ermöglichen, die Bedeutung, Absicht und den Kontext hinter menschlicher Sprache zu verstehen.

Diagramm, das die Sprachverständnisverarbeitung veranschaulicht.

Diagramm, das zeigt, wie die Nachricht eines Nutzers in Absicht und Entitäten unterteilt ist. Eine Person tippt: "Ich möchte nächste Woche einen Flug nach Paris buchen." Die Nachricht ist als Äußerung gekennzeichnet. Der Satz "Ich möchte einen Flug buchen" wird als Absicht angegeben, und "Paris" und "nächste Woche" werden als Entitäten identifiziert. Das System fragt dann nach weiteren Details wie Abflugstadt und Reiseklasse. Das Diagramm zeigt, wie der Akteur Absicht, Entitäten und Kontext nutzt, um die beste Reaktion zu bestimmen.

Sprachverständnis umfasst:

  • Absichtserkennung: Identifikation dessen, was der Nutzer erreichen möchte (zum Beispiel bildet "Buchen Sie nächste Woche einen Flug nach Paris" die Absicht, einen Flug zu buchen).
  • Entitätsextraktion: Extraktion wichtiger Details wie Daten, Orte oder Namen (zum Beispiel "Paris" als Ziel, "nächste Woche" als Reisedatum).
  • Kontextbewusstsein: Kontinuität aufrechterhalten und Mehrdeutigkeiten im Gespräch lösen (zum Beispiel das Verstehen von Pronomen oder Anspielungen).
  • Umgang mit Mehrdeutigkeiten: Kontext nutzen, um Wörter mit mehreren Bedeutungen zu lösen (zum Beispiel "Bank" als Finanzinstitut oder Flussufer).

Sprachverständnis im Copilot Studio

Copilot Studio bietet ein flexibles Modell für das Sprachverständnis mit mehreren Konfigurationsoptionen.

Generative Orchestrierung

Generative Orchestrierung nutzt Sprachmodelle, um Themen, Aktionen und Wissen intelligent miteinander zu verknüpfen. Diese Funktion ermöglicht Multi-Intent-Erkennung, fortschrittliche Entitätsextraktion und dynamische Plangenerierung für komplexe Abfragen.

Diese Methode ist die Standardmethode für Copilot Studio. Dieser Ansatz erkennt mehrere Absichten oder Themen in einer einzigen Äußerung, verknüpft automatisch Aktionen und Wissensquellen und erzeugt einheitliche Antworten. Es ist besonders nützlich, um komplexe Gespräche zu bewältigen, die mehrere Geschäftsbereiche abdecken. Generative Orchestrierung hat Grenzen, etwa fünf Nachrichten pro Thema oder Aktionskette und 128 Themen oder Aktionen pro Orchestrierung, bietet aber eine kraftvolle Möglichkeit, die Breite der Konversation zu skalieren.

Mehr erfahren Sie unter Generative Orchestrierungsfähigkeiten anwenden.

Klassische Orchestrierung

Klassische Orchestrierung verwendet Triggerphrasen und deterministisches Themenrouting. Wenn die Äußerung eines Nutzers mit einer Auslöserphrase übereinstimmt, läuft das entsprechende Thema. Wenn kein Match besteht, suchen Rückfallmechanismen nach Wissensquellen oder fordern den Nutzer zur Klarstellung auf.

Eingebaute NLU

Dieser Ansatz war der Standard, ist jetzt aber der Fallback-Ansatz. Copilot Studio bietet ein fertiges NLU-Modell , das Triggerphrasen, vordefinierte Entitäten und benutzerdefinierte Entitäten unterstützt. Dieses Modell ermöglicht es Agenten, Benutzerabsicht zu identifizieren und wichtige Details wie Daten, Ziele oder Mengen direkt aus einer Abfrage zu extrahieren.

NLU+

Für hohe Genauigkeit verwenden Sie die NLU+-Option. Die NLU+-Option eignet sich ideal für große Anwendungen auf Unternehmensniveau. Diese Arten von Anwendungen bestehen in der Regel aus einer großen Anzahl von Themen und Entitäten und verwenden eine große Anzahl von Schulungsbeispielen. Wenn Sie über einen sprachfähigen Agent verfügen, werden Ihre NLU+-Schulungsdaten auch verwendet, um Ihre Spracherkennungsfunktionen zu optimieren.

Azure CLU integration

Für fortgeschrittenere Szenarien, in denen Sie die Standard-generative Orchestrierung nicht verwenden können, können Sie Azure Conversational Language Understanding (CLU) integrieren. CLU bietet größere Individualisierung, mehrsprachige Unterstützung und komplexe Entitätsextraktion (zum Beispiel mehrere "von"-Entitäten). Du musst die CLU-Absichten den Copilot Studio-Themen zuordnen, um sie synchron zu halten. Diese Option ist besonders wertvoll für branchenspezifische Vokabel, nicht-englische Sprachen oder Szenarien, die höhere Genauigkeit erfordern.

Schlüsselmerkmale und Einschränkungen

Diese Tabelle vergleicht die drei Sprachverständnisansätze in Copilot Studio. Es hebt ihre wichtigsten Merkmale und Einschränkungen hervor, um Ihnen zu helfen, das richtige Modell für die Anforderungen Ihres Maklers an Komplexität, Skalierung und Genauigkeit auszuwählen.

Funktionen und Einschränkungen Generative Orchestrierung Eingebautes NLU-Modell Angepasstes Azure CLU Modell
Wichtige Features
  • Verwendet ein großes Sprachmodell
  • Behandelt komplexe Äußerungen mit mehreren Absichten, Themen/Handlungen und Wissen
  • Generiert automatisch Fragen für fehlende Eingaben
  • Erlaubt Korrekturen während des Laufens
  • Liefert eine einheitliche Antwort basierend auf den Ergebnissen von Themen, Handlungen und Wissen
  • Standard-vortrainiertes Modell mit vordefinierten Entitätstypen
  • Konfiguriert mit Triggerphrasen und benutzerdefinierten Entitäten (geschlossene Listen oder Regex)
  • Unterstützt mehr Sprachen mit nativen Modellen
  • Anpassbares Intention-Triggering-Modell für Genauigkeit oder branchenspezifische Anforderungen
  • Erweiterte Entitätsextraktion (zum Beispiel gleicher Typ, stille Extraktion)
  • Entitätsextraktion kann den Copilot Studio Standard NLU verwenden
Limits
  • Fünf Nachrichten pro Thema/Aktionskette
  • Limit von 128 Themen und Aktionen zum Auslösen
  • Single Intent Recognition pro Abfrage
  • Kann nicht verlängert werden
  • Das Ausfüllen mehrerer Slot-Entitäten desselben Typs erfordert eine Begriffsklärung
  • Single Intent Recognition pro Abfrage
  • Azure-basierte Konfiguration und zusätzliche Kosten
  • Hat Azure-Servicelimits
  • Azure CLU-Absichten und Copilot Studio -Themen müssen sorgfältig synchronisiert werden.

Erfahren Sie mehr in Überblick über das Verständnis natürlicher Sprache (NLU).

Themenstruktur und Rückfall

Die Themen haben sich von einem starren, intentionsbasierten Weg hin zu einem flexibleren, orchestrierenden Ansatz verschoben. Anstatt sich ausschließlich auf vordefinierte Auslöser und Pfade zu verlassen, fungieren Themen nun als modulare Anweisungen, auf die der Agent beim Orchestrieren eines Gesprächs zurückgreifen kann. Generative Orchestrierung übernimmt den Großteil des Routings, indem sie Benutzereingaben dynamisch interpretiert, und Themen bieten strukturierte Rückfallbacks, wenn Präzision erforderlich ist.

Das traditionellere strukturierte Themendesign lässt Gespräche natürlich und effizient wirken. Themen können Einstiegspunkte sein, die durch Nutzeräußerungen ausgelöst werden, oder wiederverwendbare Unterthemen, die durch Weiterleitungen oder Systemereignisse aufgerufen werden. Begriffsklärungsthemen helfen, Verwirrung zu vermeiden, wenn mehrere Themen ausgelöst werden könnten, während Rückfall- und Gesprächs-Boosting-Themen Sicherheitsnetze bieten, wenn der Agent die Absicht nicht sicher abgleichen kann. Sie können auch generative Antworten ergänzen, die aus externen Wissensquellen stammen, sodass Nutzer selten ohne Antwort bleiben.

Erfahren Sie mehr in "Apply Best Practices to Authoring Thems".

Lokalisierung und Sprachen

Die von einem Copilot-Studio-Agent verwendete Sprache wird durch den Wert der Systemvariablen bestimmt: System.User.Language.

Diese Variable fungiert als zentraler Kontrollpunkt für alle sprachbezogenen Verhaltensweisen des Agenten. Man kann seinen Wert manuell, programmatisch oder automatisch erkennen.

Wie funktioniert es?

  • Suchen Sie Wissen in der Sprache des Nutzers: Copilot Studio nutzt den Wert von System.User.Language , um Wissensquellen in der angegebenen Sprache zu durchsuchen. Dieser Ansatz bedeutet, dass selbst wenn ein Nutzer eine Frage in einer Sprache stellt, der Agent die Suchanfrage in die in System.User.Language festgelegte Sprache übersetzt (automatische Übersetzung für Suchanfragen).

  • Antworten Sie in der Sprache des Benutzers: Der Agent erzeugt Antworten in der von der Sprache angegebenen System.User.LanguageSprache, unabhängig davon, welche Sprache in der Frage oder in den Originaldokumenten verwendet wird (automatische Übersetzung für die Antwortgenerierung).

  • Manuelles Überschreiben: Du kannst den Wert von System.User.Language manuell einstellen, um den Agenten dazu zu zwingen, in einer bestimmten Sprache zu arbeiten. Diese Funktion ist nützlich für Tests oder Szenarien, in denen man die Sprache explizit steuern muss. Weitere Informationen finden Sie unter Konfigurieren und Erstellen mehrsprachiger Agents.

Automatische Erkennung gesprochener Sprache

Sie können Copilot Studio so konfigurieren, dass es automatisch die gesprochene oder geschriebene Sprache des Nutzers erkennt und die Variable System.User.Language entsprechend einstellt. Diese Funktion ermöglicht nahtlose mehrsprachige Erlebnisse, ohne dass die Nutzer ihre Sprachpräferenz angeben müssen.

Wie die automatische Erkennung funktioniert

  • Triggerbasierte Erkennung: Wenn der Bot eine Nachricht erhält, startet ein Trigger einen Spracherkennungsfluss.
  • Systemvariable setzen: Der Bot weist die erkannte Sprache an System.User.Language.
  • Dynamische Antwort: Der Agent führt das Gespräch in der erkannten Sprache fort, sucht sowohl Wissen als auch generiert entsprechende Antworten.

Vorteile

  • Personalisiertes Erlebnis: Nutzer interagieren in ihrer bevorzugten Sprache ohne manuelle Konfiguration.
  • Konsistente Erfahrung: Alle Antworten und Wissensabrufe stimmen mit der erkannten oder festgelegten Sprache überein.
  • Skalierbare Lösung: Unterstützt globale Bereitstellungen mit minimaler Konfiguration.

Tipp

Überprüfen Sie die Beispiellösung, die zeigt, wie man Copilot-Studio-Agenten ermöglicht, automatisch die gesprochene Sprache eines Nutzers zu erkennen und auf eine der vom Hersteller zugelassenen Sprachen für den Agenten zu wechseln: Auto-detektierte Sprache für generative Antworten

Best Practices für Lokalisierung

  • Unterstützte Sprachen konfigurieren: Definiere primäre und sekundäre Sprachen für deinen Agenten. Verwenden Sie Lokalisierungsdateien (JSON oder ResX), um Übersetzungen für Prompts, Nachrichten und Themen bereitzustellen.
  • Testen Sie mehrsprachige Szenarien: Simulieren Sie Benutzerinteraktionen in verschiedenen Sprachen, um reibungslose Übergänge und präzise Antworten zu gewährleisten.
  • Nutzen Sie Auto-Übersetzung: Verlassen Sie sich auf die integrierte Übersetzung von Copilot Studio für Wissenssuche und Antwortgenerierung, bieten Sie jedoch individuelle Übersetzungen für kritische oder nuancierte Inhalte an.
  • Überwachen und verfeinern: Nutzen Sie Analysen, um den Sprachgebrauch zu verfolgen und die Lokalisierungsabdeckung im Laufe der Zeit zu verbessern.

Copilot Studio Agentensprachen-Ansätze:

  • Getrennte Agenten pro Sprache.
  • Einzelne mehrsprachige Agenten mit vorgefertigten Übersetzungen.
  • Echtzeit-mehrsprachige Agenten, die Übersetzungsdienste zwischen Nutzer und Agent nutzen.

Der richtige Ansatz hängt von der Nutzung, Trennungsfragen, Skalierung, Aktualisierungsrhythmus und verfügbaren Ressourcen ab.

Identifizierte technische Herausforderungen

Typische Herausforderungen sind die Sicherstellung, dass die Themen von Azure CLU und Copilot Studio synchron bleiben, der Umgang mit mehrdeutigen Äußerungen sowie die Skalierung mehrsprachiger Deployments. Die frühzeitige Identifikation dieser Hindernisse ermöglicht es Ihnen, Minderungsstrategien zu planen, wie Fallback-Konfigurationen, Massentests von Triggerphrasen oder relaisbasierte Übersetzungsdienste.

Das Ziel des Sprachverständnisses ist es, sicherzustellen, dass jeder Agent Nutzeranfragen genau interpretieren, sich an verschiedene Sprachen und Szenarien anpassen und das Unerwartete elegant bewältigen kann. Dieses Ziel schafft eine solide Grundlage für den Aufbau zuverlässiger, ansprechender und effizienter Copilot Studio-Gespräche.