Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für: Dynamics 365 Contact Center - eingebettet, Dynamics 365 Contact Center - eigenständig und Dynamics 365 Customer Service
In diesem häufig gestellten Artikel werden die Fragen zur verantwortungsvollen Verwendung von KI in Copilot Features im Kundenservice beantwortet.
Was ist Copilot in Dynamics 365 Customer Service?
Copilot ist ein KI-gestütztes Tool, das die Erfahrungen der Kundenservicemitarbeitenden (Servicemitarbeitenden oder Mitarbeitenden) in Dynamics 365 Customer Service völlig verändert. Es bietet Echtzeit-, KI-gestützte Unterstützung, die Vertretern hilft, Probleme schneller zu lösen, Fälle effizienter zu verwalten und Routineaufgaben zu automatisieren, damit sie sich auf die Bereitstellung hochwertiger Kundendienste konzentrieren können.
Welche Funktionalitäten bietet das System?
Copilot stellt die folgenden Hauptfeatures bereit:
Frage stellen: Die erste Registerkarte, die Dienstmitarbeiter sehen, wenn sie den "Copilot" Hilfe-Bereich aktivieren. Es handelt sich um eine Konversationsschnittstelle mit Copilot, die dabei hilft, kontextbezogene Antworten auf die Fragen der Vertreter zu geben. Die Antworten von Copilot basieren auf internen und externen Wissensquellen, die Ihre Organisation während der Einrichtung bereitgestellt hat.
Write an email: Die zweite Registerkarte im Hilfebereich Copilot hilft Vertretern, E-Mail-Antworten schnell basierend auf dem Kontext des Falls zu erstellen, wodurch die Zeit verringert wird, die Benutzer für das Erstellen von E-Mails benötigen.
Analysieren sie die E-Mail-Stimmung: Erkennt, ob eine Kunden-E-Mail positive, negative oder neutrale Stimmungen ausdrückt. Dieser Einblick hilft Vertretern, Ton zu verstehen und effektiver zu reagieren. Dieses Feature gilt nur für eingehende Kunden-E-Mails und leitet keine bestimmten Emotionen ab. Sie wertet die repräsentative Leistung nicht aus und sollte nicht als einzige Eingabe für das Leistungsmanagement von Kundendienstmitarbeitern verwendet werden. Jede Verwendung von Stimmungsdaten für die Auswertung muss eine menschliche Aufsicht umfassen.
Eine Chatantwort erstellen: Ermöglicht es Mitarbeitenden, mit einem einzigen Klick eine Antwort auf die laufende E-Messaging-Unterhaltung aus von Ihrer Organisation konfigurierten Wissensquellen zu erstellen.
Anfrage zusammenfassen: Copilot stellt Mitarbeitenden direkt im Anfrageformular eine Zusammenfassung einer Anfrage zur Verfügung, sodass sie sich schnell über die wichtigen Details informieren können.
Unterhaltung zusammenfassen: Copilot stellt Mitarbeitenden an wichtigen Punkten im gesamten Kundenkontaktverlauf eine Zusammenfassung einer Unterhaltung zur Verfügung, z. B. bei der virtuellen Mitarbeiterübergabe, bei Weiterleitungen und bei Bedarf.
Generate knowledge draft from case (preview): Copilot generiert den Entwurf eines Wissensartikels als Vorschlag basierend auf Informationen aus dem Fallbeispiel. Mitarbeiter können den Entwurf überprüfen und verfeinern, indem sie Copilot Überarbeitungsanweisungen geben und ihn dann speichern.
Summarize a custom record: Copilot stellt eine Zusammenfassung eines Datensatzes mithilfe von Feldern bereit, die ein Administrator für die benutzerdefinierte Tabelle konfiguriert. Diese Zusammenfassung hilft Vertretern, wichtige Details eines Supportdatensatzes schnell zu verstehen.
Abschlussnotizen erstellen: Copilot stellt Mitarbeitenden eine Zusammenfassung der Anfragedetails, E-Mails und Notizen, die mit der Anfrage verbunden sind, auf der Registerkarte Frage stellen bereit, damit sie die Anfrage bzw. den Vorfall schneller abschließen können.
Prognose mit KI-gesteuerter optimaler Methodenauswahl (Vorschau): Verbessert Prognoseszenarien durch intelligente Empfehlung und Anwendung der am besten geeigneten Methode basierend auf Szenarioeingaben. Administratoren können sich während des Setups anmelden und zwischen dem herkömmlichen Ansatz und der KI-basierten Option wählen. Vorgesetzte können auch Prognosen nach Bedarf ausführen, anstatt auf geplante Läufe zu warten, was Teams Flexibilität und schnellere Einblicke bietet.
Was ist der Verwendungszweck des Systems?
Der Copilot in Customer Service soll dazu beitragen, dass Kundenservicemitarbeitende effizienter und effektiver arbeiten. Kundenservicemitarbeitende können die wissensbasierten Antworten von Copilot nutzen, um Zeit bei der Suche nach Wissensartikeln und dem Verfassen von Antworten zu sparen. Copilot-Zusammenfassungen sollen Mitarbeitende dabei unterstützen, Anfragen und Unterhaltungen schnell zu bearbeiten. Von Copilot in Customer Service generierte Inhalte dürfen nicht ohne menschliche Überprüfung oder Aufsicht verwendet werden.
Wie wird Copilot in Customer Service bewertet? Welche Metriken werden verwendet, um die Leistung zu messen?
Copilot im Kundendienst wird in allen Entwurfs-, Entwicklungs- und Veröffentlichungsphasen anhand realer Kundenszenarien ausgewertet. Mit einer Kombination aus Forschungs- und Geschäftswirkungsstudien bewerten wir quantitative und qualitative Metriken für Copilot, einschließlich Genauigkeit, Nützlichkeit und repräsentativem Vertrauen. Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Welche Einschränkungen hat Copilot in Customer Service? Wie können Benutzende die Auswirkungen von Copilot-Einschränkungen eindämmen?
Die wissensbasierten Fähigkeiten von Copilot, wie zum Beispiel Fragen stellen, eine E-Mail schreiben und eine Chatantwort entwerfen, sind von qualitativ hochwertigen und aktuellen Wissensartikeln zur Untermauerung abhängig. Ohne diese Wissensartikel stoßen Benutzende mit höherer Wahrscheinlichkeit auf Copilot-Antworten, die nicht korrekt sind.
Um das Risiko nichtfaklicher Antworten zu verringern, verwendet Microsoft starke Wissensmanagementpraktiken. Diese Methoden tragen dazu bei, dass das mit Copilot verbundene Geschäftswissen auf dem neuesten Stand bleibt.
Welche betrieblichen Faktoren und Einstellungen lassen eine effektive und verantwortungsvolle Nutzung des Systems zu?
Überprüfen Sie die Ergebnisse von Copilot immer
Copilot basiert auf einer großen Sprachmodelltechnologie, die probabilistischer Natur ist. Wenn ein Eingabetext angezeigt wird, berechnet das Modell die Wahrscheinlichkeit jedes Wortes in diesem Text unter Berücksichtigung der davor stehenden Wörter. Das Modell wählt dann das Wort aus, das am wahrscheinlichsten folgt. Da das Modell jedoch auf Wahrscheinlichkeiten basiert, kann es nicht mit absoluter Sicherheit sagen, welches nächste Wort das richtige ist. Stattdessen gibt sie ihren besten Schätzwert basierend auf Wahrscheinlichkeitsmustern, die aus ihren Schulungsdaten gelernt wurden.
Copilot verwendet einen Ansatz namens Grounding, bei dem der Eingabe zusätzliche Informationen hinzugefügt werden, um die Ausgabe für Ihr Unternehmen in einen Kontext zu setzen. Es verwendet die semantische Suche, um die Eingabe zu verstehen und relevante interne Dokumente und vertrauenswürdige öffentliche Webergebnisse abzurufen. Anschließend wird das Modell angeleitet, eine Antwort basierend auf diesem Inhalt zu generieren. Obwohl dieser Ansatz dabei hilft, sicherzustellen, dass Copilot Antworten mit Organisationsdaten übereinstimmen, sollten Sie die Ergebnisse immer überprüfen, bevor Sie sie verwenden.
Copilot bestmöglich nutzen
Bedenken Sie bei der Arbeit mit Copilot, dass die Struktur der Fragen einen großen Einfluss auf die Antwort von Copilot haben kann. Für eine effektive Arbeit mit Copilot ist es wichtig, klare und spezifische Fragen zu stellen, Kontext bereitzustellen, damit die KI Ihre Absicht besser versteht, eine Frage nach der anderen zu stellen und Fachbegriffe zu vermeiden, um Klarheit und Zugänglichkeit zu gewährleisten.
Klare und konkrete Fragen stellen
Beim Stellen von Fragen ist eine klare Absicht unerlässlich, da sie sich direkt auf die Qualität der Antwort auswirkt. Beispielsweise ist es höchstwahrscheinlich nicht erfolgreich, eine allgemeine Frage wie "Warum startet die Kaffeemaschine des Kunden nicht?" zu stellen, als eine spezifischere Frage wie "Welche Schritte kann ich unternehmen, um herauszufinden, warum die Kaffeemaschine des Kunden nicht startet?"
Eine noch detailliertere Frage wie "Welche Schritte kann ich unternehmen, um zu bestimmen, warum eine Contoso 900-Kaffeemaschine mit einer 5-Bar-Druckbewertung nicht gestartet wird?" beschränkt den Umfang des Problems und bietet mehr Kontext, was zu genaueren und gezielteren Antworten führt.
Kontext hinzufügen
Das Hinzufügen von Kontext hilft dem Unterhaltungs-KI-System, die Absicht des Benutzenden besser zu verstehen und genauere und relevantere Antworten bereitzustellen. Ohne Kontext könnte das System die Frage des Benutzenden falsch verstehen oder allgemeine oder irrelevante Antworten geben.
"Zum Beispiel, die Frage "Warum startet die Kaffeemaschine nicht?" führt zu einer generischen Antwort im Vergleich zu einer Frage mit mehr Kontext wie: "Kürzlich hat der Kunde den Entkalkungsmodus auf seiner Kaffeemaschine eingeschaltet und den Entkalkungsvorgang erfolgreich abgeschlossen." Am Ende blinkte die Betriebsanzeige sogar dreimal, um zu bestätigen, dass die Entkalkung abgeschlossen war. Warum kann die Kaffeemaschine nicht mehr gestartet werden? zu einer allgemeinen Antwort.
Das Hinzufügen von derartigem Kontext hilft Copilot, die Absicht des Benutzenden besser zu verstehen und genauere und relevantere Antworten bereitzustellen.
Fachbegriffe nach Möglichkeit vermeiden
Es wird empfohlen, die Verwendung von hochtechnischen Begriffen und Ressourcennamen zu vermeiden, wenn Sie mit Copilot interagieren, da das System es möglicherweise nicht immer genau oder angemessen versteht. Die Verwendung einer einfacheren, natürlichen Sprache trägt dazu bei, dass das System die Absicht des Benutzenden richtig verstehen und klare, hilfreiche Antworten geben kann.
So könnten Sie beispielsweise "Der Kunde kann nicht per SSH auf die VM zugreifen, nachdem die Firewallkonfiguration geändert wurde" in "Der Kunde hat die Firewallregeln auf ihrer VM geändert" umformulieren. Sie können keine Verbindung mehr über Secure Shell (SSH) herstellen." Können Sie helfen?"
Wenn sich Mitarbeitende an die Vorschläge halten, können sie ihre Interaktionen mit Copilot verbessern und die Wahrscheinlichkeit erhöhen, dass sie korrekte und zuverlässige Antworten von ihm erhalten.
Eine Antwort zusammenfassen oder erweitern
Manchmal ist die Antwort von Copilot länger als erwartet. Dieses Szenario kann auftreten, wenn sich der Vertreter in einer Live-Chatunterhaltung mit einem Kunden befindet und präzise Antworten senden muss, verglichen mit dem Senden einer Antwort über E-Mails. In solchen Fällen ergibt das Bitten von Copilot, die Antwort zusammenzufassen, eine präzise Antwort auf die Frage. Wenn Sie weitere Details benötigen, können Sie Copilot anweisen, "Weitere Details bereitzustellen". Dadurch erhalten Sie eine detailliertere Antwort auf Ihre Frage. Wenn die Antwort abgeschnitten wird, wird der verbleibende Teil der Antwort angezeigt, wenn Sie „continue” eingeben.
Wie kann ich die von Copilot generierten Antworten beeinflussen? Kann ich die zugrunde liegende LLM optimieren?
Es ist nicht möglich, das große Sprachmodell (LLM) direkt anzupassen. Die Antworten von Copilot können durch die Aktualisierung der Quelldokumentation beeinflusst werden. Der Feedbackinhalt von Copilot Antworten wird gespeichert. Mithilfe dieser Daten können Berichte erstellt werden, um festzustellen, welche Datenquellen aktualisiert werden müssen. Wir empfehlen, Prozesse einzurichten, um die Feedbackdaten regelmäßig zu überprüfen und sicherzustellen, dass Wissensartikel die besten und aktuellsten Informationen für Copilot bereitstellen.
Welches Datensicherheitsmodell nutzt Copilot?
Copilot setzt die festgelegte rollenbasierte Zugriffssteuerung (RBAC) durch und hält sich an alle vorhandenen Sicherheitskonstrukte. Daher können Mitarbeitende keine Daten anzeigen, auf die sie keinen Zugriff haben. Außerdem werden nur Datenquellen, auf die der Vertreter Zugriff hat, für Copilot Reaktionsgenerierung verwendet.
Wie stellt Copilot fest, ob Inhalte anstößig oder schädlich sind?
Copilot bestimmt, ob Inhalte schädlich sind, und zwar durch ein Schweregrad-Bewertungssystem, das auf unterschiedlichen Kategorien anstößiger Inhalte basiert. Weitere Informationen finden Sie in den Kategorien "Schaden" in Azure KI Inhaltssicherheit.
Wo erfolgt die Datenverarbeitung und der Abruf, um die Copilot-Antworten zu generieren?
Copilot verwendet nicht den öffentlichen OpenAI-Dienst, der ChatGPT unterstützt. Copilot im Kundendienst verwendet die Microsoft Azure OpenAI Service, die in einer Microsoft verwalteten Umgebung gehostet wird. Alle Datenverarbeitungs- und Abrufvorgänge erfolgen in Microsoft verwalteten Umgebungen. Kundendaten werden nicht mit öffentlichen Modellen geteilt oder zum Trainieren verwendet.
Welche sprachlichen Einschränkungen gelten für Zusammenfassungen, die Copilot aus Vorgängen und Unterhaltungen generiert?
Viele Sprachen werden in von Copilot generierten Zusammenfassungen aus Anfragen und Unterhaltungen unterstützt. Es wird erwartet, dass die Qualität dieser Zusammenfassungen im Englischen am höchsten ist, während in den anderen Sprachen erwartet wird, dass sich die Qualität im Laufe der Zeit verbessert. Weitere Informationen zu den unterstützten Sprachen finden Sie unter Sprachunterstützung für Copilot-Features
Wird das Modell laufend getestet und überwacht? Wenn ja, wie oft? Welche Tests werden durchgeführt?
Das Modell wird kontinuierlich getestet und überwacht. Das Modell wird bei jeder Änderung der Modellversion oder seiner Interaktionen auf Qualität und schädliche Inhalte ausgewertet. Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Wie häufig wird das Modell überwacht, um Leistungseinbußen zu erkennen?
Azure OpenAI hosten und verwalten das generative AI GPT-Modell. Verantwortungsvolle KI-Praktiken und Sicherheitsausschuss-Prüfungen regulieren, wie das Modell in Kundendienstumgebungen verwendet wird. Alle Änderungen an Modellversionen oder zugrunde liegenden Eingabeaufforderungen werden auf Qualität und schädliche Inhalte überprüft. Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Verwendet das Produkt oder die Dienstleistung mehr als ein Modell oder ein System von voneinander abhängigen Modellen?
Unterschiedliche Features im System können unterschiedliche Versionen von Azure OpenAI-Servicemodellen verwenden. Weitere Informationen finden Sie unter Azure OpenAI-Servicemodelle.
Verwendet Copilot ein nicht von Microsoft stammendes Modellprodukt oder einen Dienst, und ist die Dokumentation für dieses Modell verfügbar?
Copilot basiert auf Azure OpenAI, einem vollständig verwalteten KI-Dienst, der OpenAI mit von Microsoft entwickelten Modellen zur Inhaltsfilterung und Missbrauchserkennung integriert. Mehr erfahren Sie unter Transparenzhinweis für Azure OpenAI-Dienst.
Gibt es einen festgelegten Prozess, um Änderungen an Modellen, Upstreammodellen oder Ausgaben zu kommunizieren, die von anderen AI/ML- oder Modelllösungen verwendet werden?
Alle geplanten Änderungen an den Copilot-Funktionen werden über eine öffentliche Dokumentation kommuniziert. Interne verantwortliche KI-Prozesse steuern jedoch Änderungen an Modellversionen und Eingabeaufforderungen. Diese Änderungen werden nicht kommuniziert, da es sich um inkrementelle und fortlaufende funktionale Verbesserungen handelt.
Steht Microsoft wörtliches Feedback der Benutzer zur Verfügung, um das Produkt zu verbessern?
Nein.
Verfügt Microsoft über Richtlinien und Verfahren, die die verschiedenen menschlichen Rollen und Verantwortlichkeiten bei der Interaktion mit oder der Überwachung von KI-Systemen definieren und differenzieren?
Ja Im verantwortungsvollen KI-Prozess werden alle beteiligten Stakeholder und Nutzer betrachtet und deren Nutzung oder unbeabsichtigte Nutzung des Systems diskutiert. Basierend auf den identifizierten Szenarien werden die erforderlichen Risikominderungen innerhalb des Produkts oder über die Dokumentation eingeführt. Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Gibt Microsoft Möglichkeiten zum Sammeln von Beiträgen von Endbenutzern und Projektbeteiligten an, um potenzielle Auswirkungen und Risiken zu überwachen?
Ja Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Dokumentiert, praktiziert und misst Microsoft Incident-Response-Pläne für KI-Systemvorfälle, einschließlich der Messung von Reaktions- und Ausfallzeiten?
Ja Der verantwortliche KI-Prozess erfordert, dass das Team einen Plan für die Reaktion auf Vorfälle für KI-Probleme hat, ähnlich wie bei funktionalen Problemen. Die Featureteams überwachen aktiv die Leistung und Zuverlässigkeit des Systems. Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Richtet Microsoft Verfahren für den Austausch von Informationen über Fehler und negative Auswirkungen mit relevanten Stakeholdern, Bedienern, Fachkräften, Benutzenden und Betroffenen ein?
Ja Bei Problemen mit hohem Schweregrad müssen Feature-Teams den Ausfall mit den betroffenen Kunden kommunizieren.
Misst und überwacht Microsoft die Systemleistung in Echtzeit, um eine schnelle Reaktion zu ermöglichen, wenn ein KI-Systemvorfall erkannt wird?
Ja Die Feature-Teams überwachen kontinuierlich die Leistung und Zuverlässigkeit des Systems.
Testet Microsoft die Qualität der Systemerklärungen mit Endnutzern und anderen Stakeholdern?
Ja Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Verfügt Microsoft über Richtlinien und Verfahren zum Überwachen und Adressieren der Modellleistung, Vertrauenswürdigkeit, Verzerrung und Sicherheit im gesamten Modelllebenszyklus?
Ja Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Führt Microsoft Fairness-Bewertungen durch, um computergestützte und statistische Formen von Verzerrungen zu bewältigen?
Ja Weitere Informationen finden Sie im Bericht " Verantwortungsvolle KI-Transparenz".
Überwacht Microsoft Systemausgaben auf Leistungs- oder Verzerrungsprobleme?
Ja Moderationsfilter werden auf mehreren Ebenen angewendet, auch bei der Ausgabe, um sicherzustellen, dass die Antwort keine schädlichen Inhalte enthält. Weitere Informationen finden Sie im Bericht " Verantwortungsvolle KI-Transparenz".
Wie hoch ist die Resilienz im Betrieb des Modells? Gibt es beispielsweise einen Notfallwiederherstellungs- und Notfallplan für Instanzen, wenn das Modell nicht verfügbar ist?
Ähnlich wie bei allen Azure-Diensten werden Backup und Recovery über mehrere Rechenzentren unterstützt, um eine hohe Verfügbarkeit zu gewährleisten.
Ist das Modell abhängig, eingebettet in Nicht-Microsoft Tools oder Lösungen, die es schwierig machen, das Modell in eine andere Umgebung zu migrieren (einschließlich Variablen wie Hostinganbieter, Hardware, Softwaresysteme), die die Erläuterung des Modells behindern würden?
Nein.
Gibt es eine etablierte Modell-Governance-Richtlinie?
Ja Azure OpenAI unterstützt eine etablierte Governance-Richtlinie. Weitere Informationen finden Sie im Bericht " Verantwortungsvolle KI-Transparenz".
Gibt es etablierte und dokumentierte Protokolle (Autorisierung, Dauer, Typ) und Zugriffskontrollen für Schulungs- oder Produktionsdatensätze, die personenbezogene Daten enthalten, in Übereinstimmung mit Datenschutz- und Data-Governance-Richtlinien?
Derzeit gibt es kein Modelltraining, daher auch keine Anforderungen an das Dataset. Wenn ein Kundendienstmitarbeiter jedoch mit Copilot in Verbindung steht, werden abhängig von der Funktion Kontextdaten (Fall oder Chat) verwendet, um eine Antwort zu generieren.
Werden PII-Offenlegungen und Rückschlüsse auf sensible oder rechtlich geschützte Attribute überwacht?
Ja Die Datenschutzüberprüfung wird für jedes Feature durchgeführt.
Verfügt Microsoft über einen Prozess, um rechtliche und regulatorische Fragen und Anforderungen zu berücksichtigen, die für die Branche, den Geschäftszweck und die Anwendungsumgebung der eingesetzten KI-Systeme spezifisch sind?
Ja Für jedes Feature wird eine rechtliche Überprüfung durchgeführt, um behördliche Anforderungen und andere rechtliche Angelegenheiten zu erfüllen.
Verwandte Informationen
Copilot-Funktionen verwenden
Copilot zur Generierung von Wissensentwürfen aus Vorgängen verwenden
Regionale Verfügbarkeit von Copilot
Häufig gestellte Fragen zur Datensicherheit und zum Datenschutz von Copilot für Microsoft Power Platform