Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
[Dieser Artikel gehört zur Dokumentation zur Vorabversion und kann noch geändert werden.]
Ihre Agenten können ein Deep-Reasoning-Modell, das Azure OpenAI-o1-Modell, verwenden, um komplexe Aufgaben besser zu verstehen und zu erledigen. Diese Funktion verbessert die Entscheidungsfindung eines Agenten und gibt genauere Antworten zurück.
Um ein Deep-Reasoning-Modell zu verwenden, fügen Sie einer Aufgabe oder einem Schritt in den Anweisungen eines Agenten reason.
Sie können Agenten Modelle für ausführliche Erklärungen hinzufügen, bei denen der generative Modus und ausführliche Erklärung aktiviert sind.
Anmerkung
Das Hinzufügen eines Modells für ausführliche Erklärung Copilot Studio wird derzeit nur in den Regionen USA und EU (außer Großbritannien) unterstützt.
Wichtig
Dieser Artikel enthält Dokumentation zur Vorschauversion von Microsoft Copilot Studio und kann geändert werden.
Funktionen in der Vorschauversion sind nicht für den produktiven Einsatz gedacht und können eine eingeschränkte Funktionalität aufweisen. Diese Funktionen stehen vor dem offiziellen Release zur Verfügung, damit Sie früher Zugriff darauf erhalten und Feedback geben können.
Weitere Informationen zur Erstellung eines produktionsbereiten Agentens finden Sie unter Microsoft Copilot Studio-Überblick.
Wie funktioniert Deep Reasoning?
Deep Reasoning verwendet das Azure OpenAI o1-Modell, um Aufgaben zu erledigen, die logisches Denken, Problemlösung und Schritt-für-Schritt-Analyse erfordern. Dieses Modell ermöglicht es Ihrem Agenten, komplexe Aufgaben mit größerer Genauigkeit jedoch langsameren Reaktionszeiten als die Standardmodelle, die von Copilot Studio verwendet werden, zu erledigen.
Agenten verwenden Deep Reasoning nicht automatisch. Stattdessen weisen Sie Ihre Agenten an, Aufgaben mit Deep Reasoning zu erledigen, indem Sie das Schlüsselwort reason in den Agentenanweisungen verwenden.
Zugriff auf Deep-Reasoning-Modelle aktivieren
Um das Schlussfolgern mit einem Agenten verwenden zu können, müssen Sie den generativen Modus und den Zugriff auf Deep-Reasoning-Modelle für diesen Agenten aktivieren:
Öffnen Sie Ihren Agent.
Wählen Sie Einstellungen.
Wählen Sie die Registerkarte Generative KI aus.
Wenn sich Ihr Agent noch nicht im generativen Modus befindet, wählen Sie den generativen Modus aus.
Aktivieren Sie Deep-Reasoning-Modelle verwenden.
Ein Deep-Reasoning-Modell für komplexe Aufgaben verwenden
Agenten verwenden Deep Reasoning-Modelle nicht automatisch oder für alle Aufgaben oder Schritte, die der Agent ausführt. Stattdessen können Agenten Deep-Reasoning-Modelle verwenden, um bestimmte Aufgaben zu erledigen.
Um Deep Reasoning zu verwenden, weisen Sie den Agenten in den Agentenanweisungen an reason für die Erledigung einer bestimmten Aufgabe oder eines bestimmten Schritts zu verwenden.
Diese Anweisungen enthalten beispielsweise das Schlüsselwort reason in einem der Schritte. Der Agent verwendet das Azure OpenAI o1-Modell nur für diesen Schritt:
Analysieren Sie den Anforderungstext, um Folgendes zu identifizieren: Standort (z. B. Arizona) und angeforderte Dienstleistungen (z. B. Reinigung, Landschaftsgestaltung, Wartung).
Verwenden Sie Lieferanten aus ERP-Flow abrufen, um interne Lieferantendaten abzurufen.
Durchsuchen Sie Ihre interne Wissensdatenbank nach Informationen zu Kapazität, Standort und Leistung von Lieferanten.
Führen Sie eine Suche im Webflow aus und extrahieren Sie Marktanteile, Umsatz, Rang und andere relevante Informationen von allen Lieferanten.
Nutzen Sie die Daten, um durch Reason eine Top-Empfehlung für die Benutzeranfrage zusammen mit dem relevanten Kontext zu geben.
Anmerkung
Ein Agent kann Deep-Reasoning-Modelle für mehrere Aufgaben oder Schritte verwenden, aber jeder muss das Schlüsselwort reason enthalten. Da Deep-Reasoning-Modelle für eine Antwort länger brauchen, kann die Verwendung der Modelle für mehrere Schritte die Reaktionszeiten Ihres Agenten erheblich verlangsamen.
Das Verhalten des Modells bei Schlussfolgerungen überprüfen
Sie können nachverfolgen, wann und wie Ihr Agent tiefgehende Begründungsmodelle auf der Seite "Aktivität " verwendet.
Die Aktivitätskarte zeigt einen Deep-Reasoning-Knoten, in dem der Agent ein Deep-Reasoning-Modell verwendet hat.
Um Details anzuzeigen, wählen Sie den Begründungsknoten aus, um ihn zu erweitern. Der erweiterte Knoten erläutert die Schlussfolgerungsschritte und -daten, die das Modell verwendet hat, sowie das Ergebnis, das das Modell ausgegeben hat.