Häufig gestellte Fragen zur Datensicherheit und zum Datenschutz von Copilot für Dynamics 365 und Power Platform
Die Funktionen von Copilot für Dynamics 365 und Power Platform folgen einer Reihe grundlegender Sicherheitspraktiken und dem Microsoft-Standard der verantwortungsvollen KI. Die Daten von Dynamics 365 und Power Platform werden durch umfassende, branchenführende Compliance-, Sicherheits- und Datenschutzkontrollen geschützt.
Copilot basiert auf dem Microsoft Azure OpenAI Service und wird vollständig in der Azure-Cloud ausgeführt. Der Azure OpenAI bietet regionale Verfügbarkeit und verantwortungsvolle KI-Inhaltsfilterung. Copilot verwendet OpenAI-Modelle mit allen Sicherheitsfunktionen von Microsoft Azure. OpenAI ist eine unabhängige Organisation. Wir geben Ihre Daten nicht an OpenAI weiter.
Copilot-Funktionen sind nicht in allen Azure-Regionen und -Sprachen verfügbar. Je nachdem, wo Ihre Umgebung gehostet wird, müssen Sie möglicherweise die Datenverschiebung über geografische Standorte hinweg zulassen, um sie nutzen zu können. Weitere Informationen finden Sie unter Datenbewegung in verschiedenen Regionen.
Was passiert mit meinen Daten, wenn ich Copilot verwende?
Sie haben die volle Kontrolle über Ihre Daten. Microsoft gibt Ihre Daten nicht an Dritte weiter, es sei denn, Sie haben dazu Ihre Einwilligung erteilt. Auch verwenden wir Ihre Kundendaten Daten nicht, um Copilot oder seine KI-Funktionen zu trainieren, es sei denn, Sie haben uns hierzu Ihre Einwilligung erteilt. Copilot hält sich an bestehende Datenberechtigungen und -richtlinien, und Sie sehen Antworten, die nur auf Daten basieren, auf die Sie persönlich Zugriff haben. Weitere Informationen darüber, wie Sie Ihre Daten kontrollieren können und wie mit Ihren Daten umgegangen wird, finden Sie in den Artikeln unter Copilot in Dynamics 365-Apps und Power Platform.
Copilot überwacht den Dienst auf missbräuchliche oder schädliche Nutzung mit transienten Vorgängen. Wir speichern die Copilot-Eingaben und -Ausgaben nicht und führen auch keine direkte Überprüfung zu Zwecken der Missbrauchsüberwachung durch.
Wie verwendet Copilot meine Daten?
Jeder Dienst oder jede Funktion nutzt Copilot auf der Grundlage der Daten, die Sie bereitgestellt oder für die Verarbeitung durch Copilot konfiguriert haben.
Ihre Prompts (Eingaben) und die Antworten von Copilot (Ausgaben oder Ergebnisse):
Sind für andere Kunden NICHT verfügbar.
Werden NICHT zum Trainieren oder Verbessern von Drittanbieterprodukten oder -diensten (z. B. OpenAI-Modelle) verwendet.
Werden NICHT zum Trainieren oder Verbessern von Microsoft-KI-Modellen verwendet, es sei denn, Ihr Mandantenadministrator hat sich für die Freigabe von Daten an uns entschieden. Weitere Informationen finden Sie unter Häufig gestellte Fragen zur optionalen Datenfreigabe für Copilot-KI-Funktionen in Dynamics 365 und Power Platform.
Mehr über Azure OpenAI Service, Datenschutz und Sicherheit erfahren Um mehr darüber zu erfahren, wie Microsoft Ihre Daten im Allgemeinen schützt und verwendet, lesen Sie unsere Datenschutzerklärung.
Wohin fließen meine Daten?
Microsoft schafft Vertrauen. Bei allem, was wir tun, sind wir der Sicherheit, dem Datenschutz und der Einhaltung von Vorschriften verpflichtet, und unser Ansatz für KI ist nicht anders. Kundendaten, einschließlich Copilot-Eingaben und -Ausgaben, werden innerhalb der Microsoft Cloud-Vertrauensgrenzen gespeichert.
In einigen Szenarien, beispielsweise bei von Bing unterstützten Funktionen und Copilot-Plug-Ins von Drittanbietern, können Kundendaten über die Vertrauensgrenze der Microsoft Cloud hinaus übertragen werden.
Kann Copilot auf verschlüsselte Inhalte zugreifen?
Die Daten werden an Copilot nur basierend auf der Zugriffsebene des aktuellen Benutzers übermittelt. Wenn ein Benutzer Zugriff auf die verschlüsselten Daten in Dynamics 365 und Power Platform hat und diese Copilot zur Verfügung gestellt werden, kann Copilot darauf zugreifen.
Wie schützt Copilot Kundendaten?
Microsoft ist einzigartig positioniert, um unternehmenstaugliche KI bereitzustellen. Unterstützt durch den Azure OpenAI Service erfüllt Copilot die bestehenden Datenschutz-, Sicherheits- und rechtliche Verpflichtungen gegenüber unseren Kunden.
Basierend auf dem umfassenden Ansatz von Microsoft für Sicherheit, Datenschutz und Compliance. Copilot ist in Microsoft-Dienste wie Dynamics 365 und Power Platform integriert und übernimmt die wertvollen Sicherheits-, Compliance- und Datenschutzrichtlinien und -prozesse dieser Produkte, wie mehrstufige Authentifizierung und Compliance-Grenzen.
Mehrere Schutzformen zum Schutz organisatorischer Daten. Dienstseitige Technologien verschlüsseln Unternehmensinhalte sowohl im Ruhezustand als auch während der Übertragung und sorgen so für eine robuste Sicherheit. Verbindungen werden durch Transport Layer Security (TLS) geschützt und Datenübertragungen zwischen Dynamics 365, Power Platform und Azure OpenAI erfolgen über das Microsoft-Backbone-Netzwerk, wodurch Zuverlässigkeit und Sicherheit gewährleistet werden. Weitere Informationen über Verschlüsselung in der Microsoft Cloud
Entwickelt, um Ihre Daten sowohl auf Mandanten- als auch auf Umgebungsebene zu schützen. Wir wissen, dass Datenlecks für Kunden ein Problem darstellen. Microsoft-KI-Modelle werden nicht trainiert und lernen nicht aus Ihren Mandantendaten oder Ihren Prompts, es sei denn, Ihr Mandantenadministrator hat der Weitergabe von Daten an uns zugestimmt. Innerhalb Ihrer Umgebungen können Sie den Zugriff durch von Ihnen eingerichtete Berechtigungen steuern. Die Anfragen an das gemeinsame Modell werden durch Authentifizierungs- und Autorisierungsmechanismen zwischen den Mandanten getrennt. Copilot verwendet Daten, auf die nur Sie zugreifen können, und zwar mit der gleichen Technologie, die wir seit Jahren zum Schutz von Kund*innendaten verwenden.
Sind die Antworten von Copilot immer faktisch?
Wie bei jeder anderen generativen KI sind die Antworten von Copilot nicht zu 100 % faktisch. Auch wenn die Antworten auf faktenbasierte Anfragen immer weiter verbessert werden, sollten Sie dennoch Ihr Urteilsvermögen nutzen und die Ergebnisse überprüfen, bevor Sie sie an andere senden. Copilot bietet hilfreiche Entwürfe und Zusammenfassungen, damit Sie mehr tun können. Aber das geschieht völlig automatisch. Sie haben immer die Möglichkeit, die KI-generierten Inhalte zu überprüfen.
Unsere Teams gehen weiterhin Probleme wie Fehlinformationen und Desinformationen, Blockierung von Inhalten, Datensicherheit und Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren Prinzipien für eine verantwortungsvolle KI proaktiv an.
Wir bieten auch Anleitungen innerhalb der Benutzererfahrung, um den verantwortungsvollen Umgang mit KI-generierten Inhalten und vorgeschlagenen Aktionen zu stärken.
Anweisungen und Prompts. Bei der Verwendung von Copilot werden Sie durch Prompts und andere Informationselemente daran erinnert, die Antworten vor der Verwendung des KI-generierten Inhalts zu überprüfen und zu bearbeiten sowie Fakten, Daten und Texte manuell auf Richtigkeit zu überprüfen.
Quellenangaben Gegebenenfalls zitiert Copilot seine Informationsquellen, ob öffentlich oder intern, damit Sie diese selbst überprüfen können, um seine Antworten zu bestätigen.
Weitere Informationen finden Sie in den Häufig gestellten Fragen zur verantwortungsvollen KI für Ihr Produkt auf Microsoft Learn.
Wie blockiert Copilot schädliche Inhalte?
Azure OpenAI Service umfasst ein Inhaltsfiltersystem, das neben den Kernmodellen funktioniert. Die Inhaltsfilterungsmodelle für die Kategorien Hass und Fairness, sexuelle Inhalte, Gewalt und Selbstverletzung wurden speziell in verschiedenen Sprachen trainiert und getestet. Dieses System funktioniert, indem es sowohl den Prompt als auch die Antwort durch Klassifizierungsmodelle laufen lässt, die darauf ausgelegt sind, schädliche Inhalte zu identifizieren und deren Ausgabe zu blockieren.
Mit Hass und Fairness verbundene Schäden beziehen sich auf alle Inhalte, die eine abwertende oder diskriminierende Sprache aufgrund von Merkmalen wie Rasse, ethnischer Zugehörigkeit, Nationalität, Geschlechtsidentität und -ausdruck, sexueller Orientierung, Religion, Einwanderungsstatus, Fähigkeitsstatus, persönlichem Aussehen und Körpergröße verwenden. Bei Fairness geht es darum, sicherzustellen, dass KI-Systeme alle Personengruppen gleich behandeln, ohne zu bestehenden gesellschaftlichen Ungleichheiten beizutragen. Zu den sexuellen Inhalten gehören Diskussionen über menschliche Fortpflanzungsorgane, romantische Beziehungen, erotisch oder zärtlich dargestellte Handlungen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich solcher, die als Körperverletzung oder erzwungene Handlung sexueller Gewalt dargestellt werden, Prostitution, Pornografie und Missbrauch. Gewalt beschreibt Sprache im Zusammenhang mit körperlichen Handlungen, die darauf abzielen, Schaden zuzufügen oder zu töten, einschließlich Handlungen, Waffen und verwandten Entitäten. Selbstverletzung bezieht sich auf vorsätzliche Handlungen, die darauf abzielen, sich selbst zu verletzen oder zu töten.
Weitere Informationen zum Azure OpenAI-Inhaltsfilter
Blockiert Copilot Prompt-Injection-Angriffe (Jailbreak-Angriffe)?
Jailbreak-Angriffe sind Benutzeraufforderungen, die das generative KI-Modell dazu provozieren sollen, Verhaltensweisen an den Tag zu legen, zu deren Vermeidung es trainiert wurde, oder die Regeln zu brechen, an die es sich halten soll. Zur Implementierung des Schutzes vor Prompt-Injection-Angriffen sind Dienste in Dynamics 365 und Power Platform erforderlich. Erfahren Sie mehr über Jailbreak-Angriffe und wie Sie sie mit Azure AI Content Safety erkennen können.
Blockiert Copilot indirekte Prompt-Injection-Angriffe (indirekte Angriffe)?
Indirekte Angriffe, auch als indirekte Prompt-Angriffe oder Cross-Domain-Prompt-Injection-Angriffe bezeichnet, sind eine potenzielle Schwachstelle, bei der Dritte bösartige Anweisungen in Dokumente einfügen, auf die das generative KI-System zugreifen und sie verarbeiten kann. Zur Implementierung des Schutzes vor indirekten Prompt-Injection-Angriffen sind Dienste in Dynamics 365 und Power Platform erforderlich. Erfahren Sie mehr über indirekte Angriffe und wie Sie Azure KI Inhaltssicherheit verwenden, um sie zu erkennen.
Wie testet und validiert Microsoft die Qualität von Copilot, einschließlich Schutz vor Prompt-Injection-Angriffen und fundierten Reaktionen?
Jedes neue Copilot-Produkt und jede neue Sprachmodelliteration müssen eine interne Prüfung der verantwortungsvollen KI bestehen, bevor sie auf den Markt gebracht werden können. Vor der Veröffentlichung nutzen wir einen Prozess namens „Red Teaming“ (bei dem ein Team einen feindlichen Angriff simuliert und dabei Schwachstellen findet und ausnutzt, um der Organisation zu helfen, ihre Verteidigung zu verbessern), um potenzielle Risiken in Bezug auf schädliche Inhalte, Jailbreak-Szenarien und fundierte Reaktionen zu bewerten. Nach der Veröffentlichung verwenden wir automatisierte Tests sowie manuelle und automatisierte Bewertungstools, um die Qualität der Copilot-Antworten zu bewerten.
Wie verbessert Microsoft das Grundlagenmodell und misst Verbesserungen bei fundierten Antworten?
Im Kontext der KI, insbesondere der KI, die sich mit Sprachmodellen wie dem, auf dem Copilot basiert, befasst, hilft Grounding der KI, Antworten zu generieren, die relevanter und sinnvoller sind und in der realen Welt einen Sinn ergeben. Durch das Grounding wird sichergestellt, dass die Antworten der KI auf zuverlässigen Informationen basieren und so genau und relevant wie möglich sind. Die Metriken für fundierte Antworten bewerten die Genauigkeit, mit der die Fakten, die in den dem Modell zur Verfügung gestellten fundierten Inhalten enthalten sind, in der endgültigen Antwort dargestellt werden.
Die Grundmodelle wie GPT-4 werden durch Retrieval Augmented Generation-(RAG-)Techniken erweitert. Diese Techniken ermöglichen es den Modellen, mehr Informationen zu nutzen, als sie trainiert wurden, um das Szenario eines Benutzers zu verstehen. RAG identifiziert zunächst Daten, die für das Szenario relevant sind, ähnlich wie eine Suchmaschine Webseiten identifiziert, die für die Suchbegriffe des Benutzers relevant sind. Es werden mehrere Ansätze verwendet, um zu ermitteln, welche Inhalte für die Benutzeraufforderung relevant sind und zur Begründung der Antwort verwendet werden sollten. Die Ansätze umfassen die Suche nach verschiedenen Arten von Indizes, beispielsweise invertierten Indizes unter Verwendung von Informationsabfragetechniken wie Begriffszuordnung oder Vektorindizes unter Verwendung von Vektorabstandsvergleichen für semantische Ähnlichkeit. Nachdem die relevanten Dokumente identifiziert wurden, übergibt RAG die Daten zusammen mit der aktuellen Konversation an das Modell, wodurch das Modell mehr Kontext erhält, um die bereits vorhandenen Informationen besser zu verstehen und eine Antwort zu generieren, die in der realen Welt verankert ist. Abschließend überprüft RAG die Antwort, um sicherzustellen, dass sie von dem Quellinhalt unterstützt wird, der dem Modell bereitgestellt wurde. Die generativen KI-Funktionen von Copilot integrieren RAG auf verschiedene Weise. Ein Beispiel ist der Chat mit Daten, bei dem ein Chatbot fundiertere Antworten liefert, da er mit den eigenen Datenquellen des Kunden verknüpft wird (Grounding).
Eine andere Methode zur Verbesserung grundlegender Modelle ist die Feinabstimmung. Ein großes Dataset von Abfrage-Antwort-Paaren wird einem Basismodell angezeigt, um sein ursprüngliches Training mit neuen Beispielen zu ergänzen, die auf ein bestimmtes Szenario ausgerichtet sind. Das Modell kann dann als separates Modell bereitgestellt werden und zwar als ein fundiertes Modell, das genau auf das jeweilige Szenario abgestimmt ist. Während es beim Grounding darum geht, das Wissen der KI für die reale Welt relevant zu machen, geht es bei der Feinabstimmung darum, das Wissen der KI für eine bestimmte Aufgabe oder Domäne zu spezifizieren. Microsoft nutzt die Feinabstimmung auf vielfältige Weise. Beispielsweise verwenden wir die Power Automate-Flowerstellung aus den vom Benutzer bereitgestellten Beschreibungen in natürlicher Sprache.
Erfüllt Copilot die Anforderungen an die Einhaltung gesetzlicher Vorschriften?
Microsoft Copilot ist Teil des Dynamics 365- und Power Platform-Ökosystems und erfüllt die gleichen Anforderungen an die Einhaltung gesetzlicher Vorschriften. Ausführliche Informationen zu den behördlichen Zertifizierungen für Microsoft-Dienste finden Sie unter Service Trust Portal. Darüber hinaus agiert Copilot im Sinne unserer Bestrebungen zur Entwicklung verantwortungsvoller KIs, die in unserem Standard für eine verantwortungsvolle KI beschrieben sind. Während sich die Regulierung im KI-Bereich weiterentwickelt, passt sich Microsoft weiterhin an und reagiert auf neue Anforderungen.
Weitere Informationen
Copilot in Dynamics 365-Apps und Power Platform
Weitere Informationen finden Sie unter Häufig gestellte Fragen zur optionalen Datenfreigabe für Copilot-KI-Funktionen in Dynamics 365 und Power Platform.
Verfügbarkeit nach Region und Sprache
Internationale Verfügbarkeit von Copilot
Datenbewegungen über geografische Grenzen hinweg
- So funktioniert die Datenverschiebung zwischen Regionen
- Datenverschiebung über geografische Standorte hinweg für generative KI-Funktionen außerhalb der Vereinigten Staaten konfigurieren
- Copilot-Datenverschiebung in Dynamics 365 Sales über geografische Regionen hinweg
- Copilot-Datenverschiebung in Dynamics 365 Business Central über geografische Grenzen hinweg
Sicherheit bei Microsoft
- Einführung in Sicherheit bei Azure
- Verschlüsselung in der Microsoft Cloud
- Daten, Datenschutz und Sicherheit für Azure OpenAI-Service – Azure AI-Services
Datenschutz bei Microsoft
Microsoft-Datenschutzbestimmungen