Häufig gestellte Fragen zur Datensicherheit und zum Datenschutz von Copilot in Dynamics 365
Mit der Einführung von generativer KI in allen Microsoft-Geschäftsanwendungen einschließlich Dynamics 365, Viva Sales und Microsoft Power Platform wird die rollen- und prozessübergreifende Interaktion mit KI im gesamten Unternehmen zur zweiten Natur. Mit Copilot führen Dynamics 365 und Power Platform eine neue Möglichkeit zur Generierung von Ideen, Inhaltsentwürfen und Methoden für den Zugriff und die Organisation von Informationen im gesamten Unternehmen ein.
Bevor Ihr Unternehmen mit der Nutzung der Copilot-Funktionen in Dynamics 365 und Power Platform beginnt, haben Sie möglicherweise Fragen zur Funktionsweise, zur Sicherheit Ihrer Geschäftsdaten, zur Einhaltung der Datenschutzbestimmungen sowie zu anderen wichtigen Aspekten.
In diesem Artikel finden Sie Antworten auf häufige Fragen im Zusammenhang mit der Sicherheit von Geschäftsdaten und dem Datenschutz, um Ihrem Unternehmen den Start mit Copilot in Dynamics 365 und Power Platform zu erleichtern.
Was ist der Unterschied zwischen ChatGPT und Copilot?
ChatGPT ist ein universelles Sprachmodell (LLM, Large Language Model), das von OpenAI an einem riesigen Text-Dataset trainiert wurde und darauf ausgelegt ist, menschenähnliche Unterhaltungen zu führen und eine breite Palette von Fragen zu verschiedenen Themen zu beantworten.
Copilot verwendet ebenfalls ein LLM, jedoch wird die unternehmensfähige KI-Technologie, die vom Azure OpenAI Service unterstützt wird, für Ihre Geschäftsprozesse und -daten optimiert und angefordert, um Sicherheits- und Datenschutzanforderungen zu erfüllen. Für Benutzer von Dynamics 365 und Power Platform schlägt Copilot optionale Aktionen und Inhaltsempfehlungen passend zum Kontext der jeweiligen Aufgabe vor.
In den folgenden Punkten ist Copilot für die Generierung natürlicher Sprache einzigartig:
Die KI-generierten Antworten sind eindeutig kontextbezogen, relevant für die jeweilige Aufgabe und basieren auf Geschäftsdaten, unabhängig davon, ob es sich um eine Antwort auf eine E-Mail von Dynamics 365, einer Anwendung, die einen bestimmten manuellen Prozess automatisiert, oder um die Erstellung einer gezielten Liste von Kundensegmenten aus Ihrem CRM-System handelt.
Copilot verwendet sowohl ein LLM (wie GPT) als auch die Geschäftsdaten Ihres Unternehmens, um genauere, relevantere und personalisierte Ergebnisse zu erzielen. Ihre Geschäftsdaten werden nur zur Verbesserung des Kontexts für Ihr Szenario verwendet, und das LLM selbst lernt nicht aus Ihrer Nutzung. Weitere Informationen zur Funktionsweise von Copilot finden Sie in der nächsten Frage.
Copilot wird vom Azure OpenAI Service unterstützt und ist gänzlich für die Sicherheit, die Compliance und den Datenschutz auf Unternehmensniveau konzipiert.
Wie funktioniert Copilot in Dynamics 365 und Power Platform?
Mit Copilot nutzen Dynamics 365 und Power Platform die Leistungsfähigkeit von Basismodellen in Verbindung mit proprietären Microsoft-Technologien und wenden sie auf Ihre Geschäftsdaten an mit:
Suche (mit Bing und Azure Cognitive Search), die einer Copilot-Eingabeaufforderung domänenspezifischen Kontext hinzufügt und es Antworten ermöglicht, Informationen aus Inhalten wie Handbüchern, Dokumenten oder anderen Daten innerhalb des Mandanten der Organisation zu integrieren. Derzeit verwenden Power Virtual Agents und Dynamics 365 Customer Service diesen Ansatz der erweiterten Generierung beim Abrufen im Rahmen eines Vorverarbeitungprozesses zum Aufrufen eines LLM.
Microsoft-Anwendungen wie Dynamics 365, Viva Sales, Dataverse und Power Platform.
Microsoft Graph API, die mehr Kontext aus Kundensignalen in die Eingabeaufforderung einbringt, z. B. Informationen aus E-Mails, Chats, Dokumenten und Besprechungen (wenn Sie Copilot dazu autorisiert haben).
Hier finden Sie einen allgemeinen Überblick über die Funktionsweise von Copilot in Dynamics 365 und Power Platform.
Copilot fordert eine Eingabeaufforderung von einem Geschäftsbenutzer in einer App wie Dynamics 365 Sales oder Power Apps an.
Copilot verarbeitet die Eingabeaufforderung mithilfe des grounding-Ansatzes, der die Spezifität der Eingabeaufforderung verbessert, sodass der Benutzer Antworten erhält, die für seine spezifische Aufgabe relevant und umsetzbar sind. Dies geschieht zum Teil durch einen Aufruf an Microsoft Graph und Dataverse und den Zugriff auf die Unternehmensdaten, dem der Benutzer zustimmt und Berechtigungen für den Abruf seines Geschäftsinhalts und -kontexts erteilt. Wir führen das Grounding auch in Dokumenten und Daten durch, die dem authentifizierten Benutzer durch rollenbasierte Zugriffssteuerungen (RBAC) angezeigt werden. Beispielsweise würde eine Intranet-Frage zu Sozialleistungen nur eine Antwort liefern, die auf Dokumenten basiert, die für die Rolle des Mitarbeiters relevant sind.
Dieser Informationsabruf wird als der Ansatz zur erweiterten Generierung beim Abrufen bezeichnet und ermöglicht es Copilot, kontextbezogenere Informationen als Eingabe für ein LLM bereitzustellen, indem die Benutzerdaten mit anderen Eingaben kombiniert werden, z. B. aus Wissensdatenbankartikeln abgerufene Informationen zur Verbesserung der Eingabeaufforderung.
Copilot übernimmt die Antwort vom LLM und bearbeitet sie nach. Je nach Szenario umfasst diese Nachbearbeitung eine Kombination aus zusätzlichen Grounding-Aufrufen an Microsoft Graph, verantwortungsvollen KI-Prüfungen, Filterung mit Azure-Inhaltsmoderation sowie zusätzlichen geschäftsspezifischen Einschränkungen und Befehlsgenerierung.
Schließlich gibt Copilot eine empfohlene Antwort an den Benutzer zurück und sendet Befehle zurück an die Apps, wo eine Human-in-the-Loop-Validierung erfolgt. Copilot verarbeitet und orchestriert diese anspruchsvollen Dienste iterativ, um Ergebnisse zu erzielen, die für Ihr Unternehmen relevant, genau und sicher sind.
Wie nutzt Copilot Ihre proprietären Geschäftsdaten? Wird Copilot zum Trainieren von KI-Modellen verwendet?
Copilot erschließt geschäftlichen Mehrwert, indem es LLMs auf sichere, konforme und datenschutzorientierte Weise mit Ihren Geschäftsdaten verbindet.
Mit Ihrer Zustimmung (als Kund*in), die Sie jederzeit widerrufen können, hat Copilot in Echtzeit Zugriff auf Ihre Inhalte und den Kontext in Microsoft 365 Graph und Dataverse. Dies ermöglicht Copilot Folgendes:
Generieren von Antworten, die in Ihren Geschäftsinhalten verankert sind, sofern sie relevant sind und eine entsprechende Einwilligung vorliegt. Zu den Geschäftsdaten gehören beispielsweise Ihre Dokumente, E-Mails, Kalender, Chats, Besprechungen oder Kontakte.
Kombinieren der Geschäftsdaten mit Ihrem Arbeitskontext. Zum Beispiel die Besprechung, an der Sie gerade teilnehmen, der E-Mail-Austausch zu einem bestimmten Thema oder Ihre Chat-Unterhaltungen von letzter Woche.
Überprüfen, dass Sie über den entsprechenden Zugriff verfügen, um die Informationen als Antwort zu erhalten.
Liefern fundierter, relevanter und kontextbezogener Antworten auf der Grundlage der oben genannten Punkte.
Wichtig
- Microsoft verwendet Kund*innendaten nicht zum Trainieren von LLMs. Die Daten der Kund*innen gehören nur ihnen, ganz im Sinne der Datenschutzrichtlinie von Microsoft.
- KI-gesteuerte LLMs werden anhand eines großen, aber begrenzten Datenbestandes trainiert. Die Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft 365 Graph und Microsoft-Dienste zugegriffen wurde, werden jedoch nicht zum Trainieren von Copilot-Funktionen in Dynamics 365 und Power Platform zur Nutzung durch andere Kunden verwendet.
- Die Grundmodelle werden durch Ihre Nutzung nicht verbessert. Dies bedeutet, dass Ihre Daten nur autorisierten Benutzern innerhalb Ihrer Organisation zugänglich sind, es sei denn, Sie stimmen ausdrücklich einem anderen Zugriff oder einer anderen Nutzung zu.
Sind die Antworten von Copilot immer faktisch?
Es kann nicht garantiert werden, dass die Antworten, die generative KI liefert, zu 100 % faktisch sind. Auch wenn die Antworten auf faktenbasierte Anfragen immer weiter verbessert werden, sollten Nutzer*innen dennoch ihr Urteilsvermögen nutzen, wenn sie die Ergebnisse überprüfen, bevor sie sie an andere senden. Unsere Copilot-Funktionen liefern nützliche Entwürfe und Zusammenfassungen, die Ihnen helfen, mehr zu erreichen, und geben Ihnen gleichzeitig die Möglichkeit, die generierte KI zu überprüfen, anstatt diese Aufgaben vollständig zu automatisieren.
Unsere Teams verbessern weiterhin Algorithmen, um Probleme wie Fehlinformationen und Desinformationen, Blockierung von Inhalten, Datensicherheit und die Verhinderung der Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren Prinzipien für eine verantwortungsvolle KI proaktiv anzugehen.
Wir bieten auch Anleitungen innerhalb der Benutzererfahrung, um den verantwortungsvollen Umgang mit KI-generierten Inhalten und Aktionen zu stärken. Um Benutzern bei der effektiven Nutzung von Copilot und empfohlenen Aktionen und Inhalten zu helfen, bieten wir Folgendes an:
Informative Anleitung und Eingabeaufforderungen. Bei der Verwendung von Copilot informieren Informationselemente Benutzer*innen darüber, wie sie die vorgeschlagenen Inhalte und Aktionen verantwortungsvoll nutzen können, und fordern sie auf, die Antworten vor der Verwendung nach Bedarf zu überprüfen und zu bearbeiten sowie Fakten, Daten und Texte manuell auf Richtigkeit zu überprüfen.
Zitierte Quellen. Copilot zitiert gegebenenfalls öffentliche Quellen und stellt Links zu den referenzierten Webinhalten für Sie bereit, damit Sie diese prüfen können.
Wie schützt Copilot vertrauliche Geschäftsinformationen und -daten?
Microsoft ist einzigartig positioniert, um unternehmenstaugliche KI bereitzustellen. Copilot wird vom Azure OpenAI Service unterstützt und verfügt über integrierte verantwortungsvolle KI und Azure-Sicherheit auf Unternehmensniveau.
Basierend auf dem umfassenden Ansatz von Microsoft für Sicherheit, Compliance und Datenschutz. Copilot ist in Microsoft-Dienste wie Dynamics 365, Viva Sales, Power Platform und Microsoft 365 integriert und übernimmt die wertvollen Sicherheits-, Compliance- und Datenschutzrichtlinien und -prozesse dieser Produkte. Zwei-Faktor-Authentifizierung, Compliance-Grenzen, Datenschutz und mehr machen Copilot zu einer KI-Lösung, der Sie vertrauen können.
Entwickelt, um Mandanten- und Gruppendaten sowie individuelle Daten zu schützen. Wir wissen, dass Datenlecks für Kunden ein Problem darstellen. LLMs werden nicht weiter auf Basis Ihrer Mandantendaten oder Ihrer Eingabeaufforderungen trainiert und lernen auch nicht daraus. Innerhalb Ihres Mandanten bietet unser bewährtes Berechtigungsmodell Schutzmaßnahmen und Sicherheit auf Unternehmensniveau, wie sie in unseren Azure-Angeboten zu finden sind. Auf individueller Ebene präsentiert Copilot Daten, auf die nur Sie zugreifen können, und zwar mit der gleichen Technologie, die wir seit Jahren zum Schutz von Kund*innendaten verwenden.
Entwickelt, um neue Fähigkeiten zu erlernen. Die Grundkenntnisse von Copilot sind ein entscheidender Faktor für Produktivität und Geschäftsprozesse. Die Funktionen ermöglichen Ihnen das Erstellen, Zusammenfassen, Analysieren, Zusammenarbeiten und Automatisieren unter Verwendung Ihrer spezifischen Geschäftsinhalte und -kontexte. Darüber hinaus empfiehlt Copilot Ihnen Maßnahmen (z. B. „Erstellen Sie einen Zeit- und Spesenantrag, damit Mitarbeiter*innen ihre Zeit- und Spesenabrechnungen einreichen können“). Copilot ist auf die kontinuierliche Erlernung neuer Fähigkeiten ausgerichtet. Mit Viva Sales kann Copilot beispielsweise lernen, wie man eine Verbindung zu CRM-Datensystemen herstellt, um Kund*innendaten wie Interaktions- und Bestellhistorien in die Kommunikation einzubinden. Wenn Copilot neue Domänen und Prozesse kennenlernt, kann es noch anspruchsvollere Aufgaben und Abfragen ausführen.
Wird Copilot die Anforderungen für die Einhaltung gesetzlicher Vorschriften erfüllen?
Microsoft bietet Copilot innerhalb des Dynamics 365- und Power Platform-Ökosystems an. Einzelheiten zu den behördlichen Zertifizierungen für einen Microsoft-Dienst finden Sie unter Service Trust Portal. Darüber hinaus agiert Copilot im Sinne unserer Bestrebungen zur Entwicklung verantwortungsvoller KIs, die in unseren Grundsätzen für eine verantwortungsvolle KI beschrieben sind.
Während sich die Regulierung im KI-Bereich weiterentwickelt, wird Microsoft sich weiterhin anpassen und reagieren, um künftige regulatorische Anforderungen in diesem Bereich zu erfüllen.