Freigeben über


Generative Orchestrierungsfähigkeiten anwenden

Generative Orchestrierung ist die Entwicklung der Entwicklung von konversationellen Agenten im Copilot Studio. Es führt eine große Sprachmodell-(LLM)-gesteuerte Planungsschicht ein, die die Nutzerintention interpretiert, komplexe Anfragen aufschlüsselt, die richtigen Werkzeuge und das richtige Wissen auswählt und mehrstufige Pläne mit Sicherheits- und Compliance-Richtlinien umsetzt. Anstatt sich ausschließlich auf handgefertigte Gesprächsthemen zu verlassen, setzt generative Orchestrierung wiederverwendbare Bausteine – Aktionen, Themen, Wissensquellen, Kinderagenten und autonome Trigger – zu intelligenten Arbeitsabläufen zusammen.

In Copilot Studio liefert die Aktivierung generativer Orchestrierung bessere Antworten mit weniger manuellem Skripten. In diesem Artikel erfahren Sie mehr über die Architektur hinter generativer Orchestrierung und wie Sie effektive Anweisungen erstellen sowie Ihre orchestrierten Agenten testen und optimieren können.

Warum ist generative Orchestrierung wichtig?

Traditionelle themengetriebene Designs erfordern mehrere handgefertigte Themen, starre Verzweigungen und manuelle Slot-Füll-Logik. Dieser Ansatz kann dazu führen:

  • Große Themeninventare mit sich überlappender Logik.
  • Schwierigkeiten, mit mehrdeutigen oder multifunktionalen Äußerungen umzugehen.
  • Inkonsistente Erfahrungen, wenn Nutzer Fragen unterschiedlich formulieren.
  • Hohe Wartungskosten, wenn APIs oder Geschäftsregeln sich ändern.

Generative Orchestrierung löst diese Herausforderungen durch:

  • Themenverbreitung durch das Zusammensetzen wiederverwendbarer Bausteine verringern.
  • Automatisierung des Slot-Füllungs basierend auf Eingabedefinitionen.
  • Anpassung von Antwortstil und Planstruktur dynamisch.
  • Verbesserung der Relevanz durch semantische Wissensabrufe.
  • Proaktive Vorschläge für den nächsten Schritt.

Architektur und Komponenten

Auf einer übergeordneten Ebene besteht ein generativer Orchestrator-Agent aus mehreren Schlüsselkomponenten, die zusammenarbeiten:

  • Orchestrator (Planer): Das LLM-gesteuerte Gehirn des Agenten, das eine Eingabe, wie eine Benutzernachricht oder ein Ereignis, in einen strukturierten Plan umwandelt. Der Orchestrator identifiziert die Absichten, wählt aus, welche Werkzeuge, Themen oder Agenten für jeden Schritt aufgerufen werden, und definiert die Abfolge und den Datenfluss zwischen den Schritten. Es gibt eine geordnete Liste von Schritten (einen "Plan") aus, die die Laufzeit ausführt, und stellt sicher, dass jeder Schritt innerhalb der Richtlinien liegt. Zum Beispiel sucht es Genehmigung für sensible Handlungen.

  • Wissensschicht: Eine Reihe von Abrufquellen, wie interne Wissensdatenbanken, Dokumente, Datenbanken und mehr, die der Agent abfragen kann, um seine Antworten zu begründen. Der Orchestrator nutzt diese Schicht, um sachliche Informationen oder Leitlinien zu erhalten. Die Ergebnisse enthalten oft Zitate und Metadaten, die der Agent zur Transparenz in Antworten einbauen kann. Die Wissensschicht ist schreibgeschützt und liefert Belege oder Kontext.

  • Werkzeuge und Connectors: Externe Aktionen, APIs oder Automatisierungsflüsse, die der Agent als Teil eines Plans aufrufen kann. Jedes Werkzeug hat eine definierte Schnittstelle: Eingabeparameter (mit erwarteten Typen), Ausgabevariablen und möglicherweise Fehlerbedingungen. Sie sind im Grunde die "Fähigkeiten" des Agenten zur Durchführung von Operationen, wie zum Beispiel eine Bestellung nachzuschlagen, eine E-Mail zu verschicken oder ein Skript auszuführen. Du solltest Werkzeuge gründlich testen und sicherstellen, dass sie sich deterministisch verhalten, wenn du die gleichen Eingaben hast, da der Orchestrator sie als zuverlässige Funktionen behandelt.

  • Themen und Inline-Agenten: Wiederverwendbare Gesprächsthemen oder Mini-Dialoge, die spezifische Logik zusammenfassen. Bei generativer Orchestrierung kann der Planer Themen nicht nur durch Triggerphrasen aufrufen, sondern auch wann immer ihr beschriebener Zweck dem Bedarf des Nutzers entspricht. Inline-Agenten beziehen sich auf kleine, fokussierte Themen oder Routinen, die als Unterschritte innerhalb eines größeren Plans verwendet werden. Sie laufen im Kontext des Hauptagenten und übernehmen diskrete Aufgaben, sodass der Hauptorchestrator diese Details nicht explizit skripten muss.

  • Ereignisauslöser (Autonomie): Mechanismen, die den Orchestrator ohne Benutzernachricht starten. Diese Mechanismen können geplante Trigger oder ereignisbasierte Trigger sein, wie eine Aktualisierung eines Datenbankdatensatzes, die den Agenten dazu bringen, einen Plan autonom zu starten. Jeder Auslöser kann seine eigenen Bedingungen und Anweisungen haben. Autonome Trigger ermöglichen es dem Agenten, proaktiv zu handeln, indem er Workflows initiiert, wenn bestimmte Bedingungen erfüllt sind, anstatt nur auf Benutzerchat-Eingaben zu reagieren.

Kontrollschichten und Entscheidungsgrenzen

Bei einem produktionsfähigen Agenten sollte man nicht jede Entscheidung der KI überlassen. Typischerweise existieren drei Kontrollebenen:

  • Deterministische Schicht: Diese Schicht verwendet traditionelle, regelbasierte Logik, die man weiterhin für missionskritische oder irreversible Aktionen durchsetzt. Zum Beispiel könnten Sie bei der Abwicklung einer Zahlung oder beim Löschen eines Datensatzes ein streng verfasstes Thema oder einen Flow verwenden, der Schritt für Schritt ohne jegliche KI-Interpretation ausgeführt wird. Diese Schicht kann auch explizite Prüfungen oder Validierungen für sensible Daten enthalten. Wenn etwas genau wie angegeben geschehen muss, gehe deterministisch damit um. Du kannst den generativen Orchestrator so konfigurieren, dass diese Flows nicht überschreiben oder verändert werden. In der Praxis könnten Sie solche Aktionen entweder dem KI-Planer nicht offenlegen oder sie immer in ein Thema einbetten, das eine Bestätigung durch den Nutzer benötigt.

  • Hybride (Intercept-)Schicht: Diese Schicht bringt etwas KI-Flexibilität rund um überwiegend deterministische Strukturen. Sie erlauben dem Orchestrator, innerhalb festgelegter Grenzen zu agieren, mit der Möglichkeit einer Abfangung durch Menschen oder regeln. Zum Beispiel könnte ein Agent automatisch eine Antwort entwerfen oder eine Aktion ausführen, aber du kannst einen Genehmigungsschritt einfügen, damit ein Manager sie überprüft. Oder der Agent kann eine Aufgabe bis zu einem bestimmten Wertlimit übernehmen und dann eskalieren müssen. Die Hybridschicht definiert Punkte vor, an denen der autonome Plan der KI kontrolliert wird. Verwenden Sie diesen Ansatz für mittlere Risikoprozesse: Lassen Sie die KI die Hauptarbeit übernehmen, aber halten Sie einen Menschen für die Überwachung auf dem Laufenden.

  • KI-Orchestrator-Schicht: Diese Schicht ist vollständig generativ. Der LLM-Planer hat die Freiheit (innerhalb der Leitplanken), Pläne für risikogeringere Abfragen zu erstellen und umzusetzen. Die meisten Q&A-Interaktionen, Informationssuche oder einfache Mehrschritte-Anfragen fallen in diese Kategorie. Bei den meisten Nutzerfragen kann der Agent eigenständig entscheiden, wie sie gelöst werden und Maßnahmen ergreifen. Diese Schicht bietet die Anpassungsfähigkeit und Leistungsfähigkeit generativer KI. Es ist an Richtlinien gebunden. Zum Beispiel könnte die KI wissen, dass sie bestimmte Admin-Tools nicht aufrufen oder bestimmte Informationen offenlegen darf. Der Agent muss nicht für Routineaufgaben um Erlaubnis fragen.

Angesichts dieser Schichten definieren Sie explizit Entscheidungsgrenzen. Schauen Sie sich an, welche Handlungen und Themen es gibt:

  • Kann ohne Bestätigung ausgeführt werden (die KI kann sie einfach machen).
  • Fordern Sie die Bestätigung des Nutzers im Gespräch (zum Beispiel: "Sind Sie sicher, dass Sie alle Datensätze löschen möchten?")
  • Offline-Genehmigung erfordern (zum Beispiel muss ein Administrator über einen Genehmigungsworkflow bestätigen)

Setzen Sie diese Grenzen durch Ihr Themendesign durch, zum Beispiel durch das Hinzufügen eines Bestätigungsknotens, über die Genehmigungsfunktionen der Plattform oder durch Logik in den Triggern. Durch Schichten der Kontrolle stellt man sicher, dass der Agent sicher agiert – die KI erledigt das, worin sie gut ist, während Menschen oder strenge Regeln das regeln, was die KI nicht allein entscheiden sollte.

Bewährte Methoden für Agent-Anweisungen

Richtig verfasste Agentenanweisungen beeinflussen die Qualität der Planerstellung.

  • Kontextuelle Relevanz

    • Stellen Sie sicher, dass die Anweisungen nur auf Werkzeuge und Wissen verweisen, das dem Makler zur Verfügung steht.
    • Verwenden Sie die genauen Werkzeugnamen, Variablennamen und Power Fx-Kennungen.
  • Konversationsrichtlinien

    • Spezifizieren Sie das Antwortformat (Listen, Tabellen, Fettdruck).
    • Stellen Sie stilistische Anweisungen bereit ("prägnant", "Zitate einbeziehen", "nächste Schritte vorschlagen").
    • Vermeiden Sie es, spezifische Wissensquellen direkt zu benennen. Beschreiben Sie sie stattdessen.
  • Bestimmen, wann Werkzeuge oder Wissen verwendet werden sollen

    • Ich bevorzuge Werkzeugnamen. Namen haben mehr Gewicht als Beschreibungen.
    • Beschreiben Sie Wissensfähigkeiten allgemein, um falsche Informationen zu vermeiden.
  • Autonome Ausführungsanweisungen

    • Definieren Sie die erwartete Abfolge von Aktionen für mehrstufige Workflows.
    • Kombinieren Sie Prozessanweisungen mit spezifischen Eingabeaufforderungen.

Mehr erfahren Sie unter Konfigurieren hochwertiger Anweisungen für generative Orchestrierung.

Gestaltung von Themeneingaben und -ausgaben

Beim Schreiben von Themen sollten Sie besonders auf deren Ein- und Ausgabeparameter im generativen Orchestrierungsmodus achten:

  • Definieren Sie klare Eingabeparameter mit Beschreibungen: Wenn ein Thema oder eine Aktion bestimmte Informationen benötigt (wie "Benutzername" für ein Passwort-Zurücksetzungsthema), erstelle eine Themeneingabe dafür und gib ihm einen beschreibenden Namen und ein Beispiel. Der Orchestrator verwendet diese Namen und Beschreibungen, um den Benutzer automatisch zu fragen, ob der Wert fehlt. Die Verwendung einer Liste akzeptierter Werte oder einer Power Fx-Validierungsformel für Eingaben kann helfen, sicherzustellen, dass der Bot gültige Daten sammelt (zum Beispiel die Einschränkung eines Ländercodes auf zwei Buchstaben).

  • Verwenden Sie Auto-Prompting: Im generativen Modus generiert der Agent Fragen selbstständig, anstatt dass Sie manuell Frageknoten hinzufügen müssen, um fehlende Informationen anzufordern. Dieser Ansatz ist eine große Änderung gegenüber klassischen Bots. Der Schlüssel ist, dass Ihre Eingabenamen menschenfreundlich sein sollten (zum Beispiel "Startdatum", "E-Mail-Adresse"), damit die KI eine natürliche Frage formulieren kann. Wenn die automatisch generierte Frage der KI nicht ideal formuliert ist, solltest du die Beschreibung oder den Namen der Eingabe verfeinern. Diese Funktion vereinfacht die Dialoge erheblich, basiert aber auf klar definierten Eingaben.

  • Geben Sie Ausgaben für Themen an, wo angebracht: Ein Thema kann Ausgabevariablen erzeugen, die der Orchestrator verwendet, um die endgültige Antwort zu kompilieren. Zum Beispiel könnte ein "Store Finder"-Thema .NearestStoreLocation Indem man Informationen eingibt, anstatt direkt eine Nachricht an den Nutzer zu senden, ermöglicht man dem Orchestrator, diese Informationen elegant mit anderen Schritten zu kombinieren. Wenn der Inhalt eines Themas in einer größeren Antwort verwendet wird, erfassen Sie ihn als Ausgabevariable und lassen Sie den Orchestrator die endgültige Botschaft übernehmen. Mehr erfahren unter Agent-Verhalten mit generativer KI orchestrieren.

  • Vermeiden Sie das "doppelte Handhaben" von Daten in Prompts: Wenn du Ausgaben konfigurierst, führe diese Ausgaben nicht auch als offenen Kontext in das LLM ein. Wenn zum Beispiel eine Aktion einen Zusammenfassungstext zurückgibt, gib diese Zusammenfassung als strukturierte Ausgabe durch und lass den Orchestrator sie einbeziehen, anstatt eine Anweisung wie "Das Ergebnis der Aktion sagt {zusammenfassung}" zu schreiben. Dieser Ansatz verhindert, dass das Modell Inhalte übergeneriert oder wiederholt. Die Ausgaben sollten, wann immer möglich, die finalen Datenpunkte sein.

Aktionen, Themen und Wissen verknüpfen

Da der Orchestrator mehrere Fähigkeiten in einem Zug nutzen kann, entwirft man mit Blick auf Komponierbarkeit:

  • Gib allem intuitive Namen und Beschreibungen: Der Planer entscheidet sich größtenteils für ein Tool oder Thema, basierend darauf, wie gut Name und Beschreibung mit der Anfrage des Nutzers übereinstimmen. Verwenden Sie aktive Phrasen, die mit den Absichten des Nutzers übereinstimmen. Zum Beispiel wird ein Tool namens "TranslateText" mit der Beschreibung "Übersetzt Text in eine bestimmte Sprache" eher ausgewählt, wenn der Nutzer nach Übersetzungen fragt, als ein generisch benanntes "Flow1". Namen sind wichtiger als alles andere. Vermeiden Sie kryptische Namen. Wenn der Agent das falsche Thema wählt, überprüfe diese Namen und Beschreibungen erneut.

  • Stellen Sie ein umfangreiches "Toolkit" bereit, aber kuratieren Sie es: Verbinden Sie alle nützlichen Aktionen, die Ihr Szenario benötigen könnte (APIs, Flows usw.), und erstellen Sie Themen für wichtige Flows. Dieser Ansatz gibt der KI mehr Möglichkeiten, Anfragen zu lösen. Entfernen oder deaktivieren Sie jedoch Werkzeuge und Themen, von denen Sie wissen, dass sie für den Agenten irrelevant oder riskant sind, damit sie den Planer nicht verwirren. Ein kleinerer Satz hochwertiger Auswahl ist besser als ein umfassender Satz mit Überschneidungen. Überlappende Beschreibungen können dazu führen, dass der Agent mehrere Dinge gleichzeitig ausprobiert, was vielleicht nicht wünschenswert ist.

  • Vertraue dem Planer, im Rahmen des Zumutbaren: Sobald die Komponenten klar definiert sind, lass den Orchestrator mischen und anpassen. Wenn der Nutzer beispielsweise etwas fragt, das durch einen Wissensartikel oder eine Live-Daten-API behandelt werden könnte, könnte der Planer beides verwenden – das Wissen für den Hintergrund abrufen und die API für aktuelle Informationen aufrufen. Dieser Ansatz kann eine bessere Antwort liefern. Akzeptieren Sie diese Autonomie, aber beobachten Sie frühzeitig, ob gute Entscheidungen getroffen werden.

  • Behandle mehrere Intentionen: Wenn eine Benutzeranfrage von Natur aus zwei verschiedene Dinge verlangt (wie "Eröffne ein neues Konto und schick mir die Details"), versucht der generative Planer, beide zu erfüllen, indem er die entsprechenden Sequenzen nacheinander aufruft. Du musst das Verzweigen für Multi-Intent nicht manuell skripten. Deine Aufgabe als Entwickler ist es, sicherzustellen, dass jede Teilaufgabe (Kontoeröffnung, Versand von Details) von einem Tool oder Thema abgedeckt wird und dass deren Ausgaben und Eingaben bei Bedarf miteinander verbunden sind.

  • Lassen Sie Wissen Themen und Werkzeuge ergänzen: Der Orchestrator kann proaktiv Wissenssuche aufrufen, nicht nur als Rückfall. Wenn Sie eine umfangreiche Wissensdatenbank eingerichtet haben, kann der Agent einen Teil einer Anfrage mit einem Wissensartikel-Ausschnitt beantworten, selbst wenn eine Aktion einen anderen Teil abdeckt. Dieses Verhalten ist beabsichtigt. Halte deine Wissensdatenbank mit Informationen auf dem neuesten Stand, die nicht leicht über Tools verfügbar sind.

  • Achten Sie auf den Umfang der Wissensnutzung: Derzeit können Sie den Agenten nicht zwingen, einen bestimmten Wissensartikel auf Abruf zu verwenden. Die KI wählt relevante Artikel basierend auf der Anfrage aus. Beachten Sie auch Einschränkungen. Zum Beispiel werden Systemthemen wie "Mehrere Themen abgeglichen" im generativen Modus nicht verwendet, da der Planer die Begriffsklärung unterschiedlich handhabt. Erfahren Sie mehr über weitere bekannte Einschränkungen generativer Orchestrierung.

Testen und Abstimmen des orchestrierten Stoffs

Generative Orchestrierung verlagert einige Logiken von explizitem Design in das "Gehirn" der KI. Iterative Tests stellen sicher, dass es sich wie vorgesehen verhält. Hier sind Best Practices zum Testen und zur Verbesserung Ihres orchestrierten Agenten:

  • Verwenden Sie die Aktivitätskarte: Copilot Studio stellt während des Tests eine Aktivitätskarte bereit, die die vom Orchestrator gewählten Schritte zeigt. Nachdem Sie Ihrem Agenten eine komplexe Abfrage gestellt haben, inspizieren Sie den Plan: Welche Themen oder Aktionen wurden ausgelöst? In welcher Reihenfolge? Stellte es eine angemessene Anschlussfrage? Wenn der Agent das falsche Thema gewählt oder ein Tool übersehen hat, musst du eventuell die Komponentenbeschreibungen verfeinern oder die Anweisungen anpassen.

  • Überprüfen Sie Transkripte: Sobald der Agent veröffentlicht ist, überprüfen Sie regelmäßig Gesprächstranskripte oder Protokolle. Achten Sie auf Halluzinationen oder Ungenauigkeiten in den Antworten. Wenn Nutzer Feedback geben wie "Das ist nicht korrekt", dann verfolge nach, warum der Agent das so hielt. Lösen Sie Probleme, indem Sie fehlende Fakten zur Wissensdatenbank hinzufügen, Anweisungen verschärfen oder in manchen Fällen ein neues Thema hinzufügen, um eine Lücke zu schließen. Erfahren Sie mehr in Extraction and analyze Agent-Conversation-Transkripte (Referenzarchitektur).

  • Iterieren Sie mit kleinen Änderungen: Man kann einen generativen Agent oft durch subtile Änderungen verbessern. Wenn zum Beispiel die Agentenausgabe zu ausführlich oder nicht im gewünschten Format ist, passen Sie die Anweisungen zu Stil und Format an und testen Sie erneut. Wenn jedes Mal ein unnötiges Tool aufgerufen wird, ist die Beschreibung des Tools vielleicht zu allgemein und du kannst sie so optimieren, dass sie nur dann aktiviert wird, wenn es angemessen ist. Machen Sie jeweils eine Änderung und beobachten Sie die Auswirkungen auf die Entscheidungen des Maklers.

  • Geben Sie Beispieläußerungen (vorsichtig) an: Sie könnten feststellen, dass das Hinzufügen einiger Beispiel-Benutzeranfragen in die Beschreibung eines Themas dem LLM helfen kann zu verstehen, wann dieses Thema verwendet werden soll. Zum Beispiel: "Zweck: Passwort eines Benutzers zurücksetzen. Zum Beispiel könnte der Nutzer sagen: 'Ich habe mein Passwort vergessen' oder 'Zugriff auf mein Contoso-Konto zurücksetzen.'" Diese Beispiele geben dem Modell zusätzliche Hinweise. Übertreib es nicht und halte die Beschreibungen prägnant und fokussiert. Das Modell enthält bereits viel Kontext – stellen Sie nur sicher, dass Ihre Metadaten klar sind.

  • Überwachen Sie Leistungskennzahlen: Mit steigender Nutzung sollten Sie wichtige Kennzahlen wie die Erfolgsquote (hat der Agent die Anfrage des Nutzers tatsächlich gelöst?), die Rückfallquote (wie oft "Entschuldigung, ich kann dabei nicht helfen") und die Nutzerzufriedenheit, falls vorhanden, im Auge behalten. Selbst während der Tests können einfache Zählungen, wie oft jedes Thema und Werkzeug verwendet wird, auf notwendige Anpassungen hindeuten. Wenn zum Beispiel ein triviales Smalltalk-Thema zu oft aufgerufen wird und Rauschen hinzufügt, deaktivieren Sie es oder schränken Sie seine Beschreibung ein. Lesen Sie die Anleitungen, wie Sie die Leistung Ihrer Agenten testen können.

Generative Systeme lernen implizit aus deinen Konfigurationen und Lösungen. Jede Verbesserung von Anweisungen oder Metadaten macht die nächste Entscheidung der KI besser. Mit der Zeit wird Ihr orchestrierter Agent genauer und effizienter bei der Bearbeitung von Anfragen.

Benutzerdefinierte Trigger in generativer Orchestrierung

Thema-Trigger sind speziell für generative Orchestrierung verfügbar. Mit diesen Triggern können Sie sich in den Lebenszyklus des Agenten einbinden und an kritischen Punkten des Orchestrierungsprozesses benutzerdefinierte Logik einfügen. Drei Hauptauslöser sind verfügbar:

Auslöser Wenn es ausgelöst wird Zweck
Auf erwünschtes Wissen Direkt bevor der Agent eine Knowledge Base-Abfrage durchführt Dieser Trigger ermöglicht es dir, den Moment abzufangen, in dem der Orchestrator die Wissensquellen durchsuchen will. Sie bietet Nur-Lesezugriff auf die Schlüsselwörter, die SearchPhrase der Agent verwenden möchte, sowie eine Systemvariable, um benutzerdefinierte Suchergebnisse bereitzustellen. Zum Beispiel könntest du die Abfrage erfassen und an einen proprietären Index weiterleiten oder mehr Daten in die Ergebnisse einschleusen.
Dies ist ein fortgeschrittener ("geheimer") Trigger – er ist standardmäßig nicht in der Benutzeroberfläche sichtbar und muss derzeit über eine YAML-Bearbeitung aktiviert werden (indem ein Thema genau OnKnowledgeRequestedbenannt wird). Nutzen Sie es, wenn Sie den Schritt zur Wissensabrufung erweitern oder anpassen müssen, zum Beispiel indem Sie bestimmte Ergebnisse filtern oder externe Daten in die Wissensantwort einführen.
KI-Antwort generiert Nachdem die KI einen Entwurf für eine Antwort erstellt hat, aber bevor sie an den Nutzer gesendet wird. Der Agent löst diesen Trigger aus, sobald er den endgültigen Antworttext erstellt hat (basierend auf allen Werkzeug- und Themenausgaben) und kurz bevor er ihn abgibt. Dieser Schritt gibt Ihnen die Möglichkeit, die Antwort oder ihre Zitate programmatisch zu ändern. Zum Beispiel könntest du den Text nachbearbeiten, um eventuelle Formatierungen zu korrigieren, oder Roh-URLs durch freundliche Tracking-Links ersetzen. Du kannst sogar entscheiden, die Antwort zu überschreiben. Der Trigger kann eine eigene eigene Nachricht senden, und du kannst eine Flagge ContinueResponse verwenden, um anzuzeigen, ob die ursprüngliche KI-Antwort noch gesendet werden sollte oder nicht.
Nutzen Sie diesen Trigger für Last-Minute-Anpassungen oder Verbesserungen der KI-Antwort, wie zum Beispiel das Anfügen einer Umfrage-Eingabe oder das Schwärzen von etwas, das die KI aufgenommen hat, du aber entfernen möchtest. Eine starke Nutzung dieses Triggers könnte auf eine Logik hinweisen, die in den Hauptanweisungen enthalten sein könnte. Nutze es bei Bedarf für eine feine Kontrolle.
On Plan abgeschlossen Nachdem der gesamte Plan ausgeführt und die Antwort gesendet wurde Sobald ein Plan abgeschlossen ist, also alle Schritte abgeschlossen sind und der Nutzer die Antwort sieht, wird dieser Auslöser ausgelöst. In der Regel nutzt man es, um alle Abläufe am Ende des Gesprächs einzuleiten. Eine häufige Verwendung ist es, das Gespräch auf ein bestimmtes Endthema oder eine Umfrage umzuleiten. Zum Beispiel könnten Sie ein Ende-des-Chat-Thema haben, das dem Nutzer dankt oder die nächsten Schritte anzeigt. Mit "On Plan Complete" können Sie dieses Thema automatisch aufrufen.
Seien Sie jedoch vorsichtig: Sie möchten das Gespräch wahrscheinlich nicht nach jeder einzelnen Nutzerfrage beenden, besonders wenn ein Nutzer Nachfragen stellt. Fügen Sie Logik nur dann hinzu, wenn eine bestimmte Kontextvariable gesetzt ist oder der Plan eine bestimmte Art von Anfrage gelöst hat. Im Grunde solltest du "On Plan Complete" für Aufräumaktionen oder für einen reibungslosen Abschluss verwenden, wenn es angebracht ist.

Generativere Orchestrierungsfähigkeiten

Vertiefen Sie Ihr Verständnis des Orchestrierungsmodells von Copilot Studio mit fortschrittlichen Fähigkeiten, die erweitern, wie Agenten planen, handeln und zusammenarbeiten: