Freigeben über


Häufig gestellte Fragen zur Datensicherheit und zum Datenschutz von Copilot für Dynamics 365 und Power Platform

Die Funktionen von Copilot for Dynamics 365 und Power Platform folgen einer Reihe grundlegender Sicherheitspraktiken und dem Standard der verantwortungsvollen KI. Die Daten von Dynamics 365 und Power Platform werden durch umfassende, branchenführende Compliance-, Sicherheits- und Datenschutzkontrollen geschützt.

Copilot basiert auf dem Microsoft Azure OpenAI Service und wird vollständig in der Azure-Cloud ausgeführt. Der Azure OpenAI bietet regionale Verfügbarkeit und verantwortungsvolle KI-Inhaltsfilterung. Copilot verwendet OpenAI-Modelle mit allen Sicherheitsfunktionen von Microsoft Azure. OpenAI ist eine unabhängige Organisation. Wir geben Ihre Daten nicht an OpenAI weiter.

Copilot-Funktionen sind nicht in allen Azure-Regionen und -Sprachen verfügbar. Je nachdem, wo Ihre Umgebung gehostet wird, müssen Sie möglicherweise die Datenverschiebung über geografische Standorte hinweg zulassen, um sie nutzen zu können. Weitere Informationen finden Sie unter Datenbewegung in verschiedenen Regionen.

Was passiert mit meinen Daten, wenn ich Copilot verwende?

Sie haben die volle Kontrolle über Ihre Daten. Microsoft gibt Ihre Daten nicht an Dritte weiter, es sei denn, Sie haben dazu Ihre Einwilligung erteilt. Auch verwenden wir Ihre Kundendaten Daten nicht, um Copilot oder seine KI-Funktionen zu trainieren, es sei denn, Sie haben uns hierzu Ihre Einwilligung erteilt. Copilot hält sich an bestehende Datenberechtigungen und -richtlinien, und Sie sehen Antworten, die nur auf Daten basieren, auf die Sie persönlich Zugriff haben. Weitere Informationen darüber, wie Sie Ihre Daten kontrollieren können und wie mit Ihren Daten umgegangen wird, finden Sie in den Artikeln unter Copilot in Dynamics 365-Apps und Power Platform.

Copilot überwacht den Dienst auf missbräuchliche oder schädliche Nutzung mit transienten Vorgängen. Wir speichern die Copilot-Eingaben und -Ausgaben nicht und führen auch keine direkte Überprüfung zu Zwecken der Missbrauchsüberwachung durch.

Wie verwendet Copilot meine Daten? 

Jeder Dienst oder jede Funktion nutzt Copilot auf der Grundlage der Daten, die Sie bereitgestellt oder für die Verarbeitung durch Copilot konfiguriert haben.

Ihre Eingabeaufforderungen (Eingaben) und die Antworten von Copilot (Ausgaben oder Ergebnisse):

  • Sind für andere Kunden NICHT verfügbar.

  • Werden NICHT zum Trainieren oder Verbessern von Drittanbieterprodukten oder -diensten (z. B. OpenAI-Modelle) verwendet.

  • Werden NICHT zum Trainieren oder Verbessern von Microsoft-KI-Modellen verwendet, es sei denn, Ihr Mandantenadministrator hat sich für die Freigabe von Daten an uns entschieden.

Weitere Informationen zum Datenschutz und zur Sicherheit von Azure OpenAI Service. Um mehr darüber zu erfahren, wie Microsoft Ihre Daten im Allgemeinen schützt und verwendet, lesen Sie unsere Datenschutzerklärung.

Wohin fließen meine Daten?

Microsoft schafft Vertrauen. Bei allem, was wir tun, sind wir der Sicherheit, dem Datenschutz und der Einhaltung von Vorschriften verpflichtet, und unser Ansatz für KI ist nicht anders. Kundendaten, einschließlich Copilot-Eingaben und -Ausgaben, werden innerhalb der Microsoft Cloud-Vertrauensgrenzen gespeichert.

In einigen Szenarien, beispielsweise bei von Bing unterstützten Funktionen und Copilot-Plug-Ins von Drittanbietern, können Kundendaten über die Vertrauensgrenze der Microsoft Cloud hinaus übertragen werden.

Kann Copilot auf verschlüsselte Inhalte zugreifen?

Die Daten werden an Copilot nur basierend auf der Zugriffsebene des aktuellen Benutzers übermittelt. Wenn ein Benutzer Zugriff auf die verschlüsselten Daten in Dynamics 365 und Power Platform hat und diese Copilot zur Verfügung gestellt werden, kann Copilot darauf zugreifen.

Wie schützt Copilot Kundendaten?

Microsoft ist einzigartig positioniert, um unternehmenstaugliche KI bereitzustellen. Unterstützt durch den Azure OpenAI Service erfüllt Copilot die bestehenden Datenschutz-, Sicherheits- und rechtliche Verpflichtungen gegenüber unseren Kunden.

  • Basierend auf dem umfassenden Ansatz von Microsoft für Sicherheit, Datenschutz und Compliance. Copilot ist in Microsoft-Dienste wie Dynamics 365 und Power Platform integriert und übernimmt die wertvollen Sicherheits-, Compliance- und Datenschutzrichtlinien und -prozesse dieser Produkte, wie mehrstufige Authentifizierung und Compliance-Grenzen.

  • Mehrere Schutzformen zum Schutz organisatorischer Daten. Dienstseitige Technologien verschlüsseln Unternehmensinhalte sowohl im Ruhezustand als auch während der Übertragung und sorgen so für eine robuste Sicherheit. Verbindungen werden durch Transport Layer Security (TLS) geschützt und Datenübertragungen zwischen Dynamics 365, Power Platform und Azure OpenAI erfolgen über das Microsoft-Backbone-Netzwerk, wodurch Zuverlässigkeit und Sicherheit gewährleistet werden. Erfahren Sie mehr über die Verschlüsselung in der Microsoft Cloud.

  • Entwickelt, um Ihre Daten sowohl auf Mandanten- als auch auf Umgebungsebene zu schützen. Wir wissen, dass Datenlecks für Kunden ein Problem darstellen. Microsoft-KI-Modelle werden nicht trainiert und lernen nicht aus Ihren Mandantendaten oder Ihren Eingabeaufforderungen, es sei denn, Ihr Mandantenadministrator hat der Weitergabe von Daten an uns zugestimmt. Innerhalb Ihrer Umgebungen können Sie den Zugriff durch von Ihnen eingerichtete Berechtigungen steuern. Die Anfragen an das gemeinsame Modell werden durch Authentifizierungs- und Autorisierungsmechanismen zwischen den Mandanten getrennt. Copilot verwendet Daten, auf die nur Sie zugreifen können, und zwar mit der gleichen Technologie, die wir seit Jahren zum Schutz von Kund*innendaten verwenden.

Sind die Antworten von Copilot immer faktisch?

Wie bei jeder anderen generativen KI kann nicht garantiert werden, dass die Antworten von Copilot zu 100 % faktisch sind. Auch wenn die Antworten auf faktenbasierte Anfragen immer weiter verbessert werden, sollten Sie dennoch Ihr Urteilsvermögen nutzen und die Ergebnisse überprüfen, bevor Sie sie an andere senden. Copilot bietet hilfreiche Entwürfe und Zusammenfassungen, damit Sie mehr tun können. Aber das geschieht völlig automatisch. Sie haben immer die Möglichkeit, die KI-generierten Inhalte zu überprüfen.

Unsere Teams gehen weiterhin Probleme wie Fehlinformationen und Desinformationen, Blockierung von Inhalten, Datensicherheit und Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren Prinzipien für eine verantwortungsvolle KI proaktiv an.

Wir bieten auch Anleitungen innerhalb der Benutzererfahrung, um den verantwortungsvollen Umgang mit KI-generierten Inhalten und vorgeschlagenen Aktionen zu stärken.

  • Anweisungen und Eingabeaufforderungen. Bei der Verwendung von Copilot werden Sie durch Eingabeaufforderungen und andere Informationselemente daran erinnert, die Antworten vor der Verwendung des KI-generierten Inhalts zu überprüfen und zu bearbeiten sowie Fakten, Daten und Texte manuell auf Richtigkeit zu überprüfen.

  • Quellenangaben Gegebenenfalls zitiert Copilot seine Informationsquellen, ob öffentlich oder intern, damit Sie diese selbst überprüfen können, um seine Antworten zu bestätigen.

Weitere Informationen finden Sie in den Häufig gestellten Fragen zur verantwortungsvollen KI für Ihr Produkt auf Microsoft Learn.

Wie blockiert Copilot schädliche Inhalte?

Azure OpenAI Service umfasst ein Inhaltsfiltersystem, das neben den Kernmodellen funktioniert. Die Inhaltsfilterungsmodelle für die Kategorien Hass und Fairness, sexuelle Inhalte, Gewalt und Selbstverletzung wurden speziell in verschiedenen Sprachen trainiert und getestet. Dieses System funktioniert, indem es sowohl die Eingabeaufforderung als auch die Antwort durch Klassifizierungsmodelle laufen lässt, die darauf ausgelegt sind, schädliche Inhalte zu identifizieren und deren Ausgabe zu blockieren.

Mit Hass und Fairness verbundene Schäden beziehen sich auf alle Inhalte, die eine abwertende oder diskriminierende Sprache aufgrund von Merkmalen wie Rasse, ethnischer Zugehörigkeit, Nationalität, Geschlechtsidentität und -ausdruck, sexueller Orientierung, Religion, Einwanderungsstatus, Fähigkeitsstatus, persönlichem Aussehen und Körpergröße verwenden. Bei Fairness geht es darum, sicherzustellen, dass KI-Systeme alle Personengruppen gleich behandeln, ohne zu bestehenden gesellschaftlichen Ungleichheiten beizutragen. Zu den sexuellen Inhalten gehören Diskussionen über menschliche Fortpflanzungsorgane, romantische Beziehungen, erotisch oder zärtlich dargestellte Handlungen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich solcher, die als Körperverletzung oder erzwungene Handlung sexueller Gewalt dargestellt werden, Prostitution, Pornografie und Missbrauch. Gewalt beschreibt Sprache im Zusammenhang mit körperlichen Handlungen, die darauf abzielen, Schaden zuzufügen oder zu töten, einschließlich Handlungen, Waffen und verwandten Entitäten. Selbstverletzung bezieht sich auf vorsätzliche Handlungen, die darauf abzielen, sich selbst zu verletzen oder zu töten.

Weitere Informationen zu Azure OpenAI Inhaltsfilterung.

Blockiert Copilot Prompt-Injection-Angriffe (Jailbreak-Angriffe)?

Jailbreak-Angriffe sind Benutzeraufforderungen, die das generative KI-Modell dazu provozieren sollen, Verhaltensweisen an den Tag zu legen, zu deren Vermeidung es trainiert wurde, oder die festgelegten Regeln zu brechen. Zur Implementierung des Schutzes vor Prompt-Injection-Angriffen sind Dienste in Dynamics 365 und Power Platform erforderlich. Erfahren Sie mehr über Jailbreak-Angriffe und wie Sie Azure KI Inhaltssicherheit verwenden, um sie zu erkennen.

Wie testet und validiert Microsoft die Qualität von Copilot, einschließlich Schutz vor Prompt-Injection-Angriffen und fundierten Reaktionen?

Jedes neue Copilot-Produkt und jede neue Sprachmodelliteration müssen eine interne Prüfung der verantwortungsvollen KI bestehen, bevor sie auf den Markt gebracht werden können. Vor der Veröffentlichung nutzen wir einen Prozess namens „Red Teaming“ (bei dem ein Team einen feindlichen Angriff simuliert und dabei Schwachstellen findet und ausnutzt, um der Organisation zu helfen, ihre Verteidigung zu verbessern), um potenzielle Risiken in Bezug auf schädliche Inhalte, Jailbreak-Szenarien und fundierte Reaktionen zu bewerten. Nach der Veröffentlichung verwenden wir automatisierte Tests sowie manuelle und automatisierte Bewertungstools, um die Qualität der Copilot-Antworten zu bewerten.

Wie verbessert Microsoft das Grundlagenmodell und misst Verbesserungen bei fundierten Antworten?

Im Kontext der KI, insbesondere der KI, die sich mit Sprachmodellen wie dem, auf dem Copilot basiert, befasst, hilft Grounding der KI, Antworten zu generieren, die relevanter und sinnvoller sind und in der realen Welt einen Sinn ergeben. Durch das Grounding wird sichergestellt, dass die Antworten der KI auf zuverlässigen Informationen basieren und so genau und relevant wie möglich sind. Die Metriken für fundierte Antworten bewerten die Genauigkeit, mit der die Fakten, die in den dem Modell zur Verfügung gestellten fundierten Inhalten enthalten sind, in der endgültigen Antwort dargestellt werden.

Die Grundmodelle wie GPT-4 werden durch Retrieval Augmented Generation-(RAG-)Techniken erweitert. Diese Techniken ermöglichen es den Modellen, mehr Informationen zu nutzen, als sie trainiert wurden, um das Szenario eines Benutzers zu verstehen. RAG identifiziert zunächst Daten, die für das Szenario relevant sind, ähnlich wie eine Suchmaschine Webseiten identifiziert, die für die Suchbegriffe des Benutzers relevant sind. Es werden mehrere Ansätze verwendet, um zu ermitteln, welche Inhalte für die Benutzeraufforderung relevant sind und zur Begründung der Antwort verwendet werden sollten. Die Ansätze umfassen die Suche nach verschiedenen Arten von Indizes, beispielsweise invertierten Indizes unter Verwendung von Informationsabfragetechniken wie Begriffszuordnung oder Vektorindizes unter Verwendung von Vektorabstandsvergleichen für semantische Ähnlichkeit. Nachdem die relevanten Dokumente identifiziert wurden, übergibt RAG die Daten zusammen mit der aktuellen Konversation an das Modell, wodurch das Modell mehr Kontext erhält, um die bereits vorhandenen Informationen besser zu verstehen und eine Antwort zu generieren, die in der realen Welt verankert ist. Abschließend überprüft RAG die Antwort, um sicherzustellen, dass sie von dem Quellinhalt unterstützt wird, der dem Modell bereitgestellt wurde. Die generativen KI-Funktionen von Copilot integrieren RAG auf verschiedene Weise. Ein Beispiel ist der Chat mit Daten, bei dem ein Chatbot fundiertere Antworten liefert, da er mit den eigenen Datenquellen des Kunden verknüpft wird (Grounding).

Eine andere Methode zur Verbesserung grundlegender Modelle ist die Feinabstimmung. Ein großes Dataset von Abfrage-Antwort-Paaren wird einem Basismodell angezeigt, um sein ursprüngliches Training mit neuen Beispielen zu ergänzen, die auf ein bestimmtes Szenario ausgerichtet sind. Das Modell kann dann als separates Modell bereitgestellt werden und zwar als ein fundiertes Modell, das genau auf das jeweilige Szenario abgestimmt ist. Während es beim Grounding darum geht, das Wissen der KI für die reale Welt relevant zu machen, geht es bei der Feinabstimmung darum, das Wissen der KI für eine bestimmte Aufgabe oder Domäne zu spezifizieren. Microsoft nutzt die Feinabstimmung auf vielfältige Weise. Beispielsweise verwenden wir die Power Automate-Flowerstellung aus den vom Benutzer bereitgestellten Beschreibungen in natürlicher Sprache.

Erfüllt Copilot die Anforderungen an die Einhaltung gesetzlicher Vorschriften?

Microsoft Copilot ist Teil des Dynamics 365- und Power Platform-Ökosystems und erfüllt die gleichen Anforderungen an die Einhaltung gesetzlicher Vorschriften. Ausführliche Informationen zu den behördlichen Zertifizierungen für Microsoft-Dienste finden Sie unter Service Trust Portal. Darüber hinaus agiert Copilot im Sinne unserer Bestrebungen zur Entwicklung verantwortungsvoller KIs, die in unserem Standard für eine verantwortungsvolle KI beschrieben sind. Während sich die Regulierung im KI-Bereich weiterentwickelt, passt sich Microsoft weiterhin an und reagiert auf neue Anforderungen.

Erfahren Sie mehr über die Verfügbarkeit von Dynamics 365, Power Platform und Copilot, Speicherorte von Kundendaten und die Einhaltung globaler, regionaler und branchenspezifischer Anforderungen für die Datenverwaltung.

Weitere Informationen

Copilot in Dynamics 365-Apps und Power Platform

Produkt Funktion Verwaltete Umgebungen erforderlich? So deaktivieren Sie die Funktion
AI Builder Szenarien in der Vorschau Nein Szenarien in der Vorschau
Dynamics 365 Customer Insights - Data Segmenterstellung mit Copilot für Customer Insights - Data (Vorschauversion) Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Flag.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data erteilen
Dynamics 365 Customer Insights - Data Übersicht zum Datenaufbereitungsbericht (Vorschauversion) Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Flag.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data erteilen
Dynamics 365 Customer Insights - Data Antworten auf Fragen zu Funktionen von Copilot erhalten (Vorschauversion) Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Flag.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data erteilen
Dynamics 365 Customer Insights (Daten) Mit Copilot in Customer Insights einen Dialog mit Daten führen Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Flag.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data erteilen
Dynamics 365 Customer Insights - Data Systemkonfiguration anzeigen Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Flag.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data erteilen
Dynamics 365 Customer Insights - Journeys Mit Copilot lernen und schaffen Sie mehr (Testbericht) Nein Die Verfügbarkeit dieses Copilots in Ihrer Umgebung hängt von den Power Platform-Administratoreinstellungen ab. So fügen Sie Copilot modellgesteuerten Apps hinzu.


Diese Funktion ist „App-Copilot in Customer Insights - Journeys“ und ist deshalb in Power Platform Admin Center aktiviert. Weitere Informationen: Häufig gestellte Fragen zur verantwortungsvollen KI
Dynamics 365 Customer Insights - Journeys Kontaktverläufe mit KI-Unterstützung erstellen Nein Customer Insights - Journeys hat seine eigenen Flags für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys erteilen
Dynamics 365 Customer Insights - Journeys Ihre Botschaft aktualisieren und perfektionieren Nein Customer Insights - Journeys hat seine eigenen Flags für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys erteilen
Dynamics 365 Customer Insights - Journeys Ihre E-Mails mit KI-gestützten Themen gestalten Nein Customer Insights - Journeys hat seine eigenen Flags für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys erteilen
Dynamics 365 Customer Insights - Journeys Mit dem Abfrageassistent gezielt die richtige Kundschaft ansprechen

Nein Customer Insights - Journeys hat seine eigenen Flags für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys erteilen
Dynamics 365 Customer Insights - Journeys KI verwenden, um mit dem Erstellen von E-Mails zu beginnen Nein Customer Insights - Journeys hat seine eigenen Flags für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys erteilen
Dynamics 365 Customer Insights - Journeys Bilder in Ihren Inhalten verwenden Nein Customer Insights - Journeys hat seine eigenen Flags für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys erteilen
Power Apps Apps aus Unterhaltungen erstellen Nein Funktionseinstellungen verwalten
Power Apps Copilot-Unterstützung für das Ausfüllen von Formularen in modellgesteuerten Apps (Dokumente) Nein Funktionseinstellungen verwalten
Power Apps Gut geschriebener Entwurf, Texteingabe mit Copilot Nein, Premium-Benutzerlizenz Gut geschriebener Entwurf, Texteingabe mit Copilot
Power Apps Excel zu Tabelle Nein Funktionseinstellungen verwalten
Power Apps Natürliche Sprache verwenden, um eine App über das Copilot-Bedienfeld zu bearbeiten Nein Funktionseinstellungen verwalten
Power Automate Copilot in Cloud-Flows auf der Startseite und im Designer (Details finden Sie unter Erste Schritte mit Copilot in Cloud-Flows.) Nein Wenden Sie sich an den Support, um ein PowerShell-Skript auszuführen.
Power Pages Alle (Details finden Sie unter Übersicht über Copilot in Power Pages.) Nein Copilot in Power Pages deaktivieren

Verfügbarkeit nach Region und Sprache

Internationale Verfügbarkeit von Copilot

Datenbewegungen über geografische Grenzen hinweg

Sicherheit bei Microsoft

Datenschutz bei Microsoft

Microsoft-Datenschutzbestimmungen

Verantwortungsvolle KI