Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Mithilfe von Microsoft 365 Copilot Tuning können Organisationen KI-Modelle so anpassen, dass sie ihre einzigartige Terminologie, ihren Kommunikationsstil und ihre Geschäftsprozesse widerspiegeln. Wenn Sie große Sprachmodelle (LLMs) mit Ihren eigenen Daten optimieren, können Sie die Genauigkeit, den Ton und die Relevanz von Copilot-Antworten in Ihrem Mandanten verbessern.
Copilot Tuning geht über die Aufbewahrung und den Abruf hinaus, um mandantenspezifische LLMs für die Daten Ihrer organization zu trainieren und gleichzeitig stabile Unternehmenssicherheits-, Compliance-, Governance- und Verwaltungskontrollen aufrechtzuerhalten. Die LLMs sind für bestimmte Aufgaben wie Dokumentzusammenfassung, Dokumenterstellung, Expertenantwort, Stilbearbeitung, Dokumentvalidierung und Optimierung optimiert.
In diesem Artikel wird der Prozess der Optimierung aufgabenspezifischer Agents in Microsoft 365 Copilot für Ihre organization beschrieben.
Wichtig
Microsoft 365 Copilot Tuning ist derzeit für eine begrenzte Anzahl von Kunden über Frühzugriffsprogramme verfügbar. Der Zugriff über Frontier ist für April 2026 geplant. Features und Anforderungen können sich ändern.
Übersicht über den Feinabstimmungsprozess
Führen Sie die folgenden Schritte zum Trainieren und Optimieren aus, um KI-Modelle für Ihre organization mithilfe von Copilot Tuning – Optimieren des Modells zu optimieren:
Aufgabenspezifische Anpassung : Bereiten Sie Daten für das Training vor. Jede Aufgabe verfügt über ein eigenes Rezept zum Vorbereiten der richtigen organization Daten für die Feinabstimmung.
Feinabstimmungstraining: Jede Aufgabe verfügt über ein eigenes Rezept und ein eigenes Feinabstimmungsverfahren, um das beste Ergebnis zu erzielen, indem organization Daten verwendet werden. Zu diesen Techniken gehören unter anderem Supervised Fine Tuning (SFT), Reinforcement Learning (RL) und Reasoning Fine Tuning (RFT). Diese Rezepte und Techniken entwickeln sich auch im Laufe der Zeit weiter.
Auswertung: Jede Aufgabe verfügt über eigene Rezepte zum Auswerten der Ausgabe mithilfe von Rubriken, die vom organization definiert werden.
Hinweis
Die Modelle, die Sie optimieren, sind privat. Ihre Daten werden nicht zum Trainieren allgemeiner Modelle für andere Mandanten verwendet. Die gesamte Verarbeitung Ihrer Daten erfolgt in dem Mandanten, auf den nur Ihre autorisierten Benutzer Zugriff haben, um sie zu trainieren und zu verwenden. Bestimmte Personen, in der Regel Administratoren, haben die Kontrolle über den Trainingsprozess.
Aufgabenspezifische Anpassung
Die aufgabenspezifische Anpassung erfolgt, nachdem Sie Ihre Korpora erfasst haben. Bei dieser Anpassung wird der Inhalt des organization vom ursprünglichen Format in ein Nur-Text-Format mit einer Anweisung pro Zeile verarbeitet.
Überwachte Feinabstimmung
Verwenden Sie die überwachte Feinabstimmung, um ein vortrainiertes Modell an bestimmte Aufgaben oder organisatorische Anforderungen anzupassen, indem Sie es mit bezeichneten Eingabe-/Ausgabepaaren trainieren. Dieser Prozess hilft dem Modell zu lernen, Antworten zu erzeugen, die den bevorzugten Formaten, dem bevorzugten Ton und den Complianceanforderungen Ihrer organization entsprechen. Überwachte Feinabstimmung:
- Vermittelt Struktur und Ton: Modelle lernen, wie sie auf eine Weise reagieren, die die Stimme Ihrer organization widerspiegelt.
- Verbessert die Aufgabengenauigkeit: Durch das Training an qualitativ hochwertigen Beispielen wird das Modell für Unternehmensanwendungsfälle zuverlässiger.
- Unterstützt Compliance: Sie können Modelle trainieren, um regulatorische Sprache und interne Klassifizierungen zu erkennen und darauf zu reagieren.
Vertiefendes Lernen
Verwenden Sie vertiefendes Lernen als Technik nach dem Training, um LLMs an den einzigartigen Kommunikationsstil, Den ton und die Verwendungspräferenzen Ihrer organization anzupassen. Im Gegensatz zur überwachten Feinabstimmung, bei der das Modell beibringt, korrekte Ausgaben aus bezeichneten Beispielen zu erzeugen, optimiert das vertiefende Lernen subjektive Qualitäten, indem aus Feedbacksignalen gelernt wird.
Vertiefendes Lernen ist hilfreich, wenn Ihr Modell Folgendes ausführen soll:
- Reflektieren Sie einen bestimmten Ton der Stimme (empathisch, formal, prägnant).
- Bevorzugen Sie bestimmte Tools (z. B. Microsoft Graph-APIs gegenüber RAG-basiertem Abruf).
- Vermeiden Sie das Abrufen von Inhalten aus vertraulichen Quellen (z. B. ACL-gekennzeichnete Dokumente).
- Lernen Sie aus Benutzerfeedback, um sich kontinuierlich zu verbessern.
Durch vertiefendes Lernen wird das Modell optimiert, indem die Ausgabe basierend auf den Präferenzen der Organisation bewertet wird und sowohl menschliches als auch automatisiertes Feedback verwendet wird, um das Lernen zu steuern. Wenn Copilot beispielsweise positives Feedback zu einer Antwort auf eine Urlaubsrichtlinienfrage erhält, verstärkt das Modell diese Antwort und verwendet sie in ähnlichen Kontexten wieder. Wenn dagegen eine Antwort als Ton oder Inhalt gekennzeichnet ist, lernt das Modell, dieses Muster zu vermeiden.
Erweiterte Anpassung und Wartung
Durch die Kombination verschiedener Feinabstimmungstechniken können Sie Modelle erstellen, die den Ton Ihrer organization, Aufgabenvervollständigungsmuster und Microsoft Purview Data Governance Anforderungen widerspiegeln. Diese zugrunde liegenden Modelle wenden das einzigartige Sprach- und Betriebswissen Ihrer organization auf Folgendes an:
- Beibehalten eines konsistenten Tons und einer einheitlichen Formatierung für alle Aufgaben.
- Betten Sie domänenspezifisches Wissen für Aufgaben wie das Schreiben von Dokumenten, die Zusammenfassung und die Bereitstellung von Expertenantworten auf Fragen ein.
- Berücksichtigen Sie Zugriffssteuerungen und Datenklassifizierungsrichtlinien während des Trainings und Rückschlusses.
- Generieren Sie genaue Antworten, die auf Ihre internen Standards und Benutzererwartungen abgestimmt sind.
Alle Bewertungen sind vertraulich und unterliegen den Prinzipien der verantwortungsbewussten KI von Microsoft.
Sie können Ihren Agent weiterentwickeln, sobald neue Daten verfügbar werden, und das Modell wie folgt optimieren:
- Hochladen neuer Daten.
- Aktualisieren Sie Ihre Ziele und Auswertungsmetriken, um sie an neue Aufgabentypen oder gesetzliche Änderungen anzupassen.