Freigeben über


FAQ zu verantwortungsvoller KI für Copilot in Kundenservice

Anmerkung

Die Informationen zur Verfügbarkeit des Features lauten wie folgt.

Dynamics 365 Contact Center – eingebettet Dynamics 365 Contact Center – eigenständig Dynamics 365 Customer Service
Ja Ja Ja

Dieser FAQ-Artikel hilft bei der Beantwortung der Fragen rund um den verantwortungsvollen Einsatz von KI in Copilot-Features in Customer Service.

Was ist Copilot in Dynamics 365 Customer Service?

Copilot ist ein KI-gestütztes Tool, das die Agentenfunktionalität in Dynamics 365 Customer Service transformiert. Es bietet KI-gestützte Echtzeitunterstützung, die Agenten dabei hilft, Probleme schneller zu lösen, Fälle effizienter zu bearbeiten und zeitaufwändige Aufgaben zu automatisieren. Dann können sich Agenten darauf konzentrieren, ihre Kundschaft qualitativ hochwertigen Service zu bieten.

Welche Funktionalitäten bietet das System?

Copilot stellt die folgenden Hauptfeatures bereit:

  • Eine Frage stellen: Ist die erste Registerkarte, die Agenten sehen, wenn sie den Copilot-Hilfebereich aktivieren. Es handelt sich um eine Unterhaltungsschnittstelle mit Copilot, die dabei hilft, kontextbezogene Antworten auf die Fragen der Agenten bereitzustellen. Die Antworten von Copilot basieren auf internen und externen Wissensquellen, die Ihre Organisation während der Einrichtung bereitgestellt hat.

  • Eine E-Mail schreiben: Ist die zweite Registerkarte im Copilot-Hilfebereich und hilft Agenten dabei, schnell E-Mail-Antworten basierend auf dem Kontext des Falls zu erstellen, wodurch die Zeit für die Erstellung von E-Mails reduziert wird.

  • Eine Chatantwort erstellen: Ermöglicht es Agenten, mit einem einzigen Klick eine Antwort auf die laufende E-Messaging-Unterhaltung aus von Ihrer Organisation konfigurierten Wissensquellen zu erstellen.

  • Einen Fall zusammenfassen: Copilot stellt Agenten direkt im Fallformular eine Zusammenfassung eines Falls zur Verfügung, sodass sie sich schnell über die wichtigen Details informieren können.

  • Eine Unterhaltung zusammenfassen: Copilot stellt Agenten an wichtigen Punkten im gesamten Kundenkontaktverlauf eine Zusammenfassung einer Unterhaltung zur Verfügung, z. B. bei der Übergabe virtueller Agenten, bei Weiterleitungen und bei Bedarf.

  • Wissensentwurf aus Fall generieren (Vorschauversion): Copilot generiert einen Wissensartikelentwurf als Vorschlag, der auf Informationen aus dem Fall basiert. Agents können den Entwurf überprüfen und verfeinern, indem sie Copilot Änderungsanweisungen geben und ihn anschließend speichern.

Was ist der Verwendungszweck des Systems?

Der Copilot in Customer Service soll dazu beitragen, dass Kundenservicemitarbeitende effizienter und effektiver arbeiten. Kundenservicemitarbeitende können die wissensbasierten Antworten von Copilot nutzen, um Zeit bei der Suche nach Wissensartikeln und dem Verfassen von Antworten zu sparen. Copilot-Zusammenfassungen sollen Agenten bei der schnellen Bearbeitung von Fällen und Unterhaltungen unterstützen. Von Copilot in Customer Service generierte Inhalte dürfen nicht ohne menschliche Überprüfung oder Aufsicht verwendet werden.

Wie wurde Copilot in Customer Service bewertet? Welche Metriken werden verwendet, um die Leistung zu messen?

Copilot in Customer Service wurde in jeder Phase seines Entwurfs, seiner Entwicklung und seiner Veröffentlichung anhand realer Szenarien mit Kundschaft auf der ganzen Welt bewertet. Mithilfe einer Kombination aus Forschung und Studien zu den geschäftlichen Auswirkungen haben wir verschiedene quantitative und qualitative Metriken zu Copilot bewertet, darunter Genauigkeit, Nützlichkeit und Agentenvertrauen.

Welche Einschränkungen hat Copilot in Customer Service? Wie können Benutzende die Auswirkungen von Copilot-Einschränkungen eindämmen?

Die wissensbasierten Funktionen von Copilot, wie das Stellen einer Frage, das Schreiben einer E-Mail und das Verfassen einer Chatantwort, sind auf qualitativ hochwertige und aktuelle Wissensartikel angewiesen. Ohne diese Wissensartikel stoßen Benutzende mit höherer Wahrscheinlichkeit auf Copilot-Antworten, die nicht korrekt sind.

Um die Wahrscheinlichkeit zu minimieren, dass Copilot nicht korrekte Antworten erhält, müssen Organisationen unbedingt solide Wissensmanagementpraktiken anwenden, damit das mit Copilot verbundene geschäftliche Wissen von hoher Qualität und aktuell ist.

Welche betrieblichen Faktoren und Einstellungen lassen eine effektive und verantwortungsvolle Nutzung des Systems zu?

Überprüfen Sie die Ergebnisse von Copilot immer

Copilot basiert auf einer großen Sprachmodelltechnologie, die probabilistischer Natur ist. Wenn ein Eingabetext angezeigt wird, berechnet das Modell die Wahrscheinlichkeit jedes Wortes in diesem Text unter Berücksichtigung der davor stehenden Wörter. Das Modell wählt dann das Wort aus, das am wahrscheinlichsten folgt. Da das Modell jedoch auf Wahrscheinlichkeiten basiert, kann es nicht mit absoluter Sicherheit sagen, welches nächste Wort das richtige ist. Stattdessen gibt es seine beste Schätzung basierend auf der Wahrscheinlichkeitsverteilung ab, die es aus den Daten, mit denen es trainiert wurde, gelernt hat. Copilot verwendet einen Ansatz namens Grounding, bei dem der Eingabe zusätzliche Informationen hinzugefügt werden, um die Ausgabe für Ihr Unternehmen in einen Kontext zu setzen. Es verwendet eine semantische Suche, um die Eingabe zu verstehen und relevante interne Dokumente der Organisation sowie vertrauenswürdige öffentliche Websuchergebnisse abzurufen, und leitet das Sprachmodell dazu an, auf der Grundlage dieser Inhalte zu reagieren. Dies ist zwar hilfreich, um sicherzustellen, dass die Copilot-Antworten den Daten der Organisation entsprechen, es ist jedoch wichtig, die von Copilot generierten Ergebnisse vor der Verwendung immer zu überprüfen.

Copilot bestmöglich nutzen

Bedenken Sie bei der Arbeit mit Copilot, dass die Struktur der Fragen einen großen Einfluss auf die Antwort von Copilot haben kann. Für eine effektive Arbeit mit Copilot ist es wichtig, klare und spezifische Fragen zu stellen, Kontext bereitzustellen, damit die KI Ihre Absicht besser versteht, eine Frage nach der anderen zu stellen und Fachbegriffe zu vermeiden, um Klarheit und Zugänglichkeit zu gewährleisten.

Klare und konkrete Fragen stellen

Beim Stellen von Fragen ist eine klare Absicht unerlässlich, da sie sich direkt auf die Qualität der Antwort auswirkt. Eine allgemeine Frage wie „Warum startet die Kaffeemaschine des Kunden nicht?“ führt zum Beispiel im Vergleich zu einer spezifischeren Frage wie „Mit welchen Schritten kann ich herausfinden, warum die Kaffeemaschine des Kunden nicht startet?“ weniger wahrscheinlich zu einer hilfreichen Antwort.

Stellen Sie jedoch eine noch detailliertere Frage wie „Mit welchen Schritten kann ich herausfinden, warum eine Contoso-900-Kaffeemaschine mit einem Nenndruck von 5 bar nicht startet?“, grenzen Sie das Problem weiter ein und geben mehr Kontext, was zu genaueren und gezielteren Antworten führt.

Kontext hinzufügen

Das Hinzufügen von Kontext hilft dem Unterhaltungs-KI-System, die Absicht des Benutzenden besser zu verstehen und genauere und relevantere Antworten bereitzustellen. Ohne Kontext könnte das System die Frage des Benutzenden falsch verstehen oder allgemeine oder irrelevante Antworten geben.

„Warum startet die Kaffeemaschine nicht?“ führt zum Beispiel im Vergleich zu einer kontextbezogeneren Frage wie „Vor Kurzem hat der Kunde den Entkalkungsmodus seiner Kaffeemaschine gestartet und die Entkalkung erfolgreich abgeschlossen. Am Ende blinkte die Betriebsanzeige sogar dreimal, um zu bestätigen, dass die Entkalkung abgeschlossen war. Warum kann die Kaffeemaschine nicht mehr gestartet werden?“ zu einer allgemeinen Antwort.

Das Hinzufügen von derartigem Kontext hilft Copilot, die Absicht des Benutzenden besser zu verstehen und genauere und relevantere Antworten bereitzustellen.

Fachbegriffe nach Möglichkeit vermeiden

Wir empfehlen Ihnen, bei der Interaktion mit Copilot die Verwendung extremer Fachbegriffe und Ressourcennamen zu vermeiden, da das System diese möglicherweise nicht immer richtig oder angemessen versteht. Die Verwendung einer einfacheren, natürlichen Sprache trägt dazu bei, dass das System die Absicht des Benutzenden richtig verstehen und klare, hilfreiche Antworten geben kann. Zum Beispiel:

„Der Kunde kann keine SSH-Verbindung zur VM herstellen, nachdem er die Firewall-Konfiguration geändert hat.“

Formulieren Sie stattdessen um zu:

„Der Kunde hat die Firewallregeln auf seinem virtuellen Computer geändert. Er kann jedoch keine Verbindung mehr über Secure Shell (SSH) herstellen. Können Sie hier helfen?“

Durch Befolgen der Vorschläge können Agenten ihre Interaktionen mit Copilot verbessern und die Wahrscheinlichkeit erhöhen, dass ihnen Copilot genaue und zuverlässige Antworten gibt.

Eine Antwort zusammenfassen oder erweitern

Manchmal ist die Antwort von Copilot länger als erwartet. Dies kann der Fall sein, wenn sich der Agent eine Livechatunterhaltung führt und anders als beim Versenden einer Antwort per E-Mail eine kurze und knappe Antwort senden muss. In solchen Fällen führt die Aufforderung an Copilot, die Antwort zusammenzufassen, zu einer prägnanten Antwort auf die Frage. Wenn Sie mehr Details benötigen, erhalten Sie eine detailliertere Antwort auf Ihre Frage, wenn Sie Copilot bitten, weitere Details anzugeben. Wenn die Antwort abgeschnitten ist, wird durch Eingabe von „Weiter“ der restliche Teil der Antwort angezeigt.

Wie kann ich die von Copilot generierten Antworten beeinflussen? Kann ich eine Feinabstimmung des zugrunde liegende LLM vornehmen?

Es ist nicht möglich, das große Sprachmodell (LLM) direkt anzupassen. Die Antworten von Copilot können durch die Aktualisierung der Quelldokumentation beeinflusst werden. Der gesamte Feedbackinhalt zu Copilot-Antworten wird gespeichert. Mithilfe dieser Daten können Berichte erstellt werden, um festzustellen, welche Datenquellen aktualisiert werden müssen. Es ist eine gute Idee, Prozesse einzurichten, um die Feedbackdaten regelmäßig zu überprüfen und sicherzustellen, dass Wissensartikel Copilot die besten und aktuellsten Informationen liefern.

Welches Datensicherheitsmodell nutzt Copilot?

Copilot setzt die festgelegte rollenbasierte Zugriffssteuerung (RBAC) durch und hält sich an alle vorhandenen Sicherheitskonstrukte. Daher können Agenten keine Daten anzeigen, auf die sie keinen Zugriff haben. Darüber hinaus werden für die Copilot-Antwortgenerierung nur Datenquellen verwendet, auf die ein Agent Zugriff hat.

Wo erfolgt die Datenverarbeitung und der Datenabruf für die Generierung von Copilot-Antworten?

Copilot ruft nicht den öffentlichen OpenAI Dienst auf, der ChatGPT betreibt. Copilot in Customer Service verwendet den Microsoft Azure OpenAI Dienst in einem von Microsoft verwalteten Mandanten. Die gesamte Datenverarbeitung und der Datenabruf erfolgen in von Microsoft verwalteten Mandanten. Darüber hinaus werden keine Kundendaten weitergegeben und in öffentliche Modelle eingespeist.

Welche Sprachbeschränkungen gelten für Zusammenfassungen, die Copilot aus Fällen und Gesprächen generiert?

In den von Copilot generierten Zusammenfassungen von Fällen und Gesprächen werden viele Sprachen unterstützt. Die Qualität dieser Zusammenfassungen dürfte in Englisch am höchsten sein, in den anderen Sprachen dürfte sich die Qualität mit der Zeit verbessern.

Copilot-Funktionen verwenden
Copilot zur Generierung von Wissensentwürfen aus Fällen verwenden
Regionale Verfügbarkeit von Copilot
Häufig gestellte Fragen zu Datensicherheit und Datenschutz bei Copilot in Microsoft Power Platform