Häufig gestellte Fragen zur Datensicherheit und zum Datenschutz von Copilot bei Dynamics 365 und Power Platform

Die Copilot for Dynamics 365- und Power Platform-Funktionen folgen einer Reihe grundlegender Sicherheits- und Datenschutzmaßnahmen und dem Standard für eine verantwortungsvolle KI von Microsoft. Die Daten von Dynamics 365 und Power Platform werden durch umfassende, branchenführende Compliance-, Sicherheits- und Datenschutzkontrollen geschützt.

Copilot basiert auf dem Microsoft Azure OpenAI Service und wird vollständig in der Azure-Cloud ausgeführt. Azure OpenAI bietet regionale Verfügbarkeit und verantwortungsvolle KI-Inhaltsfilterung. Copilot verwendet OpenAI-Modelle mit allen Sicherheitsfunktionen von Microsoft Azure. OpenAI ist eine unabhängige Organisation. Wir geben Ihre Daten nicht an OpenAI weiter.

Copilot-Funktionen sind nicht in allen Azure-Regionen und -Sprachen verfügbar. Je nachdem, wo Ihre Umgebung gehostet wird, müssen Sie möglicherweise die Datenverschiebung über Geografien hinweg zulassen, um sie nutzen zu können. Weitere Informationen finden Sie in den Artikeln unter Datenverschiebung über geografische Grenzen hinweg.

Was passiert mit meinen Daten, wenn ich Copilot verwende?

Sie haben die Kontrolle über Ihre Daten. Microsoft gibt Ihre Daten nicht an Dritte weiter, es sei denn, Sie haben dazu Ihre Einwilligung erteilt. Außerdem verwenden wir Ihre Kundendaten nicht, um Copilot oder seine KI-Funktionen zu trainieren, es sei denn, Sie haben uns hierzu Ihre Einwilligung erteilt. Copilot hält sich an bestehende Datenberechtigungen und -richtlinien, und seine Antworten an Sie basieren nur auf Daten, auf die sie persönlich Zugriff haben. Weitere Informationen darüber, wie Sie Ihre Daten kontrollieren können und wie mit Ihren Daten umgegangen wird, finden Sie in den unter Copilot in Dynamics 365-Apps und Power Platform aufgeführten Artikeln.

Copilot überwacht den Dienst mit vorübergehender Verarbeitung auf missbräuchliche oder schädliche Nutzung. Wir speichern die Copilot-Eingaben und -Ausgaben nicht und führen auch keine direkte Überprüfung zu Zwecken der Missbrauchsüberwachung durch.

Wie verwendet Copilot meine Daten? 

Jeder Dienst oder jede Funktion nutzt Copilot auf der Grundlage der Daten, die Sie bereitgestellen oder für die Verarbeitung durch Copilot eingerichtet haben.

Ihre Eingabeaufforderungen (Eingaben) und die Antworten von Copilot (Ausgaben oder Ergebnisse):

  • Sind für andere Kunden bzw. Kundinnen NICHT verfügbar.

  • Werden NICHT zum Trainieren oder Verbessern von Drittanbieterprodukten oder -services (z. B. OpenAI-Modelle) verwendet.

  • Werden NICHT zum Trainieren oder Verbessern von Microsoft-KI-Modellen verwendet, es sei denn, Ihr Mandantenadministrator hat sich für die Datenfreigabe an uns entschieden.

Mehr über den Azure OpenAI-Dienst, Daten, Datenschutz und Sicherheit efahren. Um mehr darüber zu erfahren, wie Microsoft Ihre Daten im Allgemeinen schützt und verwendet, lesen Sie unsere Datenschutzbestimmungen.

Wohin gehen meine Daten?

Microsoft basiert auf Vertrauen. Wir fühlen uns bei allem, was wir tun, der Sicherheit, dem Datenschutz und der Compliance verpflichtet, und unser Ansatz in Bezug auf KI ist nicht anders. Kundendaten, einschließlich Copilot-Eingaben und -Ausgaben, werden innerhalb der Microsoft Cloud-Vertrauensgrenze gespeichert.

In einigen Szenarien, beispielsweise bei von Bing unterstützten Funktionen und Copilot-Plug-Ins von Drittanbietern, können Kundendaten außerhalb der Microsoft Cloud-Vertrauensgrenze übertragen werden.

Kann Copilot auf verschlüsselte Inhalte zugreifen?

Die an Copilot übermittelten Daten werden basierend auf der Zugriffsebene des aktuellen Benutzenden bereitgestellt. Wenn ein Benutzender Zugriff auf die verschlüsselten Daten in Dynamics 365 und Power Platform hat und der Benutzende sie Copilot zur Verfügung stellt, kann Copilot darauf zugreifen.

Wie schützt Copilot Kundendaten?

Microsoft ist einzigartig positioniert, um unternehmenstaugliche KI bereitzustellen. Copilot wird durch den Azure OpenAI-Dienst unterstützt und erfüllt die bestehenden Datenschutz-, Sicherheits- und regulatorischen Verpflichtungen gegenüber unserer Kundschaft.

  • Basierend auf dem umfassendem Ansatz für Sicherheit, Datenschutz und Compliance von Microsoft. Copilot ist in Microsoft-Dienste wie Dynamics 365 und Power Platform integriert und übernimmt ihre Sicherheits-, Datenschutz- und Compliance-Richtlinien und -Prozesse, wie die Multifaktor-Authentifizierung und Compliance-Grenzen.

  • Mehrere Schutzformen zum Schutz organisatorischer Daten. Serviceseitige Technologien verschlüsseln Unternehmensinhalte im Ruhezustand und während der Übertragung und sorgen so für eine robuste Sicherheit. Verbindungen werden durch Transport Layer Security (TLS) geschützt und Datenübertragungen zwischen Dynamics 365, Power Platform und Azure OpenAI erfolgen über das Microsoft-Backbone-Netzwerk und gewährleisten so Zuverlässigkeit und Sicherheit. Erfahren Sie mehr über die Verschlüsselung in der Microsoft Cloud.

  • Entwickelt, um Ihre Daten sowohl auf Mandanten- als auch auf Umgebungsebene zu schützen. Wir wissen, dass Datenlecks für die Kundschaft ein Problem darstellen. Microsoft-KI-Modelle werden nicht trainiert und lernen nicht aus Ihren Mandantendaten oder Ihren Eingabeaufforderungen, es sei denn, Ihr Mandantenadministrierender hat der Weitergabe von Daten an uns zugestimmt. Innerhalb Ihrer Umgebungen können Sie den Zugriff durch von Ihnen eingerichtete Berechtigungen steuern. Authentifizierungs- und Autorisierungsmechanismen trennen Anfragen an das gemeinsame Modell zwischen Mandanten. Copilot nutzt Daten, auf die nur Sie zugreifen können, und zwar mit der gleichen Technologie, die wir seit Jahren zum Schutz von Kundendaten verwenden.

Sind die Antworten von Copilot immer faktisch?

Wie bei allen generativen KIs kann bei den Antworten von Copilot nicht garantiert werden, dass sie zu 100 % faktisch sind. Auch wenn die Antworten auf faktenbasierte Anfragen immer weiter verbessert werden, sollten Sie dennoch ihr Urteilsvermögen nutzen und die Ergebnisse überprüfen, bevor sie sie an andere senden. Copilot bietet hilfreiche Entwürfe und Zusammenfassungen, die Ihnen dabei helfen, mehr zu tun, aber es ist vollautomatisch. Sie haben immer die Möglichkeit, die KI-generierten Inhalte zu überprüfen.

Unsere Teams arbeiten proaktiv an Problemen wie Falschinformationen und Desinformationen, Blockierung von Inhalten, Datensicherheit und Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren Grundsätzen für eine verantwortungsvolle KI.

Wir stellen auch Anleitungen für die Nutzererfahrung bereit, um den verantwortungsvollen Umgang mit KI-generierten Inhalten und vorgeschlagenen Aktionen zu fördern.

  • Anweisungen und Eingabeaufforderungen. Bei der Verwendung von Copilot erinnern Sie Eingabeaufforderungen und andere Anweisungselemente daran, die Antworten bei Bedarf zu überprüfen und zu bearbeiten sowie Fakten, Daten und Text manuell auf ihre Richtigkeit zu überprüfen, bevor Sie die KI-generierten Inhalte verwenden.

  • Quellenangaben. Gegebenenfalls zitiert Copilot seine Informationsquellen, ob öffentlich oder intern, damit Sie diese selbst überprüfen können, um seine Antworten zu bestätigen.

Weitere Informationen finden Sie in den FAQ zu verantwortungsvoller KI für Ihr Produkt bei Microsoft Learn.

Blockiert Copilot Injektionen von Eingabeaufforderungen (Jailbreak-Angriffe)?

Jailbreak-Angriffe sind Benutzeraufforderungen, die das generative KI-Modell dazu provozieren sollen, Verhaltensweisen an den Tag zu legen, zu deren Vermeidung es trainiert wurde, oder die festgelegten Regeln zu brechen. Zum Schutz vor Injektionen von Eingabeaufforderungen sind Dienste in Dynamics 365 und Power Platform erforderlich. Erfahren Sie mehr über Jailbreak-Angriffe und wie Sie Azure AI Content Safety verwenden, um sie zu erkennen.

Wie testet und validiert Microsoft die Qualität von Copilot, einschließlich sofortigem Injektionsschutz und fundierten Antworten?

Jedes neue Copilot-Produkt und jede neue Sprachmodelliteration muss eine interne, verantwortungsvolle KI-Prüfung bestehen, bevor sie auf den Markt gebracht werden kann. Vor dem Release verwenden wir einen Prozess namens „Red Teaming“ (bei dem ein Team einen feindlichen Angriff simuliert und dabei Schwachstellen findet und ausnutzt, um der Organisation bei der Verbesserung ihrer Abwehrmechanismen zu helfen), um potenzielle Risiken in Bezug auf schädliche Inhalte, Jailbreak-Szenarien und fundierte Antworten zu bewerten. Nach dem Release verwenden wir automatisierte Tests sowie manuelle und automatisierte Bewertungstools, um die Qualität der Copilot-Antworten zu bewerten.

Wie verbessert Microsoft das Grundlagenmodell und misst Verbesserungen bei fundierten Antworten?

Im Kontext der KI, insbesondere der KI, die sich mit Sprachmodellen wie dem, auf dem Copilot basiert, befasst, hilft Grounding der KI, Antworten zu generieren, die in der realen Welt relevanter und sinnvoller sind. Durch das Grounding wird sichergestellt, dass die Antworten der KI auf zuverlässigen Informationen basieren und so genau und relevant wie möglich sind. Mit fundierten Antwortmetriken wird bewertet, wie genau die in den dem Modell bereitgestellten fundierten Inhalten dargelegten Fakten in der endgültigen Antwort dargestellt werden.

Die Grundlagenmodelle wie GPT-4 werden durch RAG-Techniken (Retrieval Augmented Generation) erweitert. Diese Techniken ermöglichen es den Modellen, mehr Informationen zu nutzen, als sie trainiert wurden, um das Szenario eines Benutzenden zu verstehen. RAG identifiziert zunächst Daten, die für das Szenario relevant sind, ähnlich wie eine Suchmaschine Webseiten identifiziert, die für die Suchbegriffe des Benutzenden relevant sind. Es verwendet mehrere Ansätze, um zu ermitteln, welche Inhalte für die Benutzeraufforderung relevant sind und zur Begründung der Antwort verwendet werden sollten. Zu den Ansätzen gehört die Suche nach verschiedenen Arten von Indizes, beispielsweise invertierten Indizes unter Verwendung von Informationsabfragetechniken wie Term Matching oder Vektorindizes unter Verwendung von Vektorabstandsvergleichen für semantische Ähnlichkeit. Nachdem die relevanten Dokumente identifiziert wurden, übergibt RAG die Daten zusammen mit der aktuellen Unterhaltung an das Modell und gibt dem Modell so mehr Kontext, um die bereits vorhandenen Informationen besser zu verstehen und eine Antwort zu generieren, die auf der realen Welt basiert. Abschließend überprüft RAG die Antwort, um sicherzustellen, dass sie von dem Quellinhalt unterstützt wird, den es dem Modell bereitgestellt hat. Die generativen KI-Funktionen von Copilot integrieren RAG auf verschiedene Weise. Ein Beispiel ist der Chat mit Daten, bei dem ein Chatbot mit den eigenen Datenquellen der Kundschaft verknüpft wird.

Eine weitere Methode zur Verbesserung grundlegender Modelle ist die Feinabstimmung. Ein großes DataSet von Abfrage-Antwort-Paaren wird einem Basismodell angezeigt, um sein ursprüngliches Training mit neuen Beispielen zu ergänzen, die auf ein bestimmtes Szenario ausgerichtet sind. Das Modell kann dann als separates Modell bereitgestellt werden – als Modell, das genau auf das jeweilige Szenario abgestimmt ist. Während es beim Grounding darum geht, das Wissen der KI für die reale Welt relevant zu machen, geht es bei der Feinabstimmung darum, das Wissen der KI spezifischer für eine bestimmte Aufgabe oder Domäne zu machen. Microsoft nutzt die Feinabstimmung auf vielfältige Weise. Beispielsweise verwenden wir die Power Automate-Flow-Erstellung aus vom Benutzenden bereitgestellten Beschreibungen in natürlicher Sprache.

Wie blockiert Copilot schädliche Inhalte?

Der Azure OpenAI-Dienst umfasst ein Inhaltsfiltersystem, das neben Kernmodellen funktioniert. Die Inhaltsfilterungsmodelle für die Kategorien „Hass und Fairness“, „Sexuell“, „Gewalt“ und „Selbstverletzung“ wurden speziell in verschiedenen Sprachen geschult und getestet. Dieses System funktioniert, indem es sowohl die Eingabeaufforderung als auch die Antwort durch Klassifizierungsmodelle laufen lässt, die darauf ausgelegt sind, schädliche Inhalte zu identifizieren und deren Ausgabe zu blockieren.

Mit Hass und Fairness verbundene Schäden beziehen sich auf alle Inhalte, die eine abwertende oder diskriminierende Sprache aufgrund von Merkmalen wie Rasse, ethnischer Zugehörigkeit, Nationalität, Geschlechtsidentität und -ausdruck, sexueller Orientierung, Religion, Einwanderungsstatus, Fähigkeitsstatus, persönlichem Aussehen und Körpergröße verwenden. Bei Fairness geht es darum, sicherzustellen, dass KI-Systeme alle Personengruppen gleich behandeln, ohne zu bestehenden gesellschaftlichen Ungleichheiten beizutragen. Zu den sexuellen Inhalten gehören Diskussionen über menschliche Fortpflanzungsorgane, romantische Beziehungen, erotisch oder liebevoll dargestellte Handlungen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich solcher, die als Körperverletzung oder erzwungene Handlung sexueller Gewalt dargestellt werden, Prostitution, Pornografie und Missbrauch. Gewalt beschreibt Sprache im Zusammenhang mit körperlichen Handlungen, die darauf abzielen, Schaden zuzufügen oder zu töten, einschließlich Handlungen, Waffen und verwandten Entitäten. Sprache mit Selbstverletzungsbegriffen bezieht sich auf vorsätzliche Handlungen, die darauf abzielen, sich selbst zu verletzen oder zu töten.

Weitere Informationen zur Azure OpenAI-Inhaltsfilterung.

Erfüllt Copilot die Anforderungen an die Einhaltung gesetzlicher Vorschriften?

Microsoft Copilot ist Teil von Dynamics 365 und dem Power Platform-Ökosystem und erfüllt die gleichen Anforderungen an die Einhaltung gesetzlicher Vorschriften. Weitere Informationen zu den behördlichen Zertifizierungen für einen Microsoft-Dienst finden Sie im Service Trust Portal. Darüber hinaus hält sich Copilot an unsere Verpflichtung zu verantwortungsvoller KI, die über unseren Standard für verantwortungsvolle KI umgesetzt wird. Während sich die Regulierung im KI-Bereich weiterentwickelt, passt Microsoft sich weiterhin an und reagiert auf neue Anforderungen.

Weitere Informationen über die Dynamics 365-, Power Platform- und Copilot-Verfügbarkeit, die Speicherorte von Kundendaten und die Einhaltung globaler, regionaler und branchenspezifischer Anforderungen für die Datenverwaltung.

Erfahren Sie mehr

Copilot in Dynamics 365-Apps und Power Platform

Produkt Feature Verwaltete Umgebungen erforderlich? So deaktivieren Sie die Funktion
Power Apps Apps durch Unterhaltung erstellen Nein Featureeinstellungen verwalten
Power Apps Excel für Tabellen Nein Featureeinstellungen verwalten
Power Apps Über den Copilot-Bereich eine App mithilfe natürlicher Sprache bearbeiten Nein Featureeinstellungen verwalten
Power Apps Copilot-Unterstützung für das Ausfüllen von Formularen in modellgesteuerten Apps Nein Featureeinstellungen verwalten
Power Apps Gut geschriebener Entwurf, Texteingabe mit Copilot Nein, Premium-Benutzerlizenz Gut geschriebener Entwurf, Texteingabe mit Copilot
AI Builder Szenarien in der Vorschauversion Nein Szenarien in der Vorschauversion
Dynamics 365 Customer Insights (Daten) Einen Dialog mit Daten mithilfe von Copilot in Customer Insights nutzen Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben
Dynamics 365 Customer Insights - Data Übersicht zum Datenaufbereitungsbericht (Vorschauversion) Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben
Dynamics 365 Customer Insights - Data Systemkonfiguration anzeigen Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben
Dynamics 365 Customer Insights - Data Antworten auf Fragen zu Funktionen von Copilot erhalten (Vorschauversion) Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben
Dynamics 365 Customer Insights - Data Mit Copilot für Customer Insights - Data Segmente erstellen (Vorschauversion) Nein Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben
Dynamics 365 Customer Insights - Journeys Copilot hilft Ihnen, mehr zu lernen und zu tun (Vorschauversion) Nein Ob dieser Copilot in Ihrer Umgebung verfügbar ist, wird durch die Power Platform-Administratoreinstellungen festgelegt. Erfahren Sie, wie Sie Copilot zu modellgesteuerten Apps hinzufügen.


Diese Funktion heißt „App-Copilot in Customer Insights - Journeys“ und wird daher im Power Platform Admin Center aktiviert. Weitere Informationen: Häufig gestellte Fragen zu verantwortungsvoller KI
Dynamics 365 Customer Insights - Journeys Mit der Abfrageassistenz gezielt die richtigen Kunden ansprechen

Nein Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben
Dynamics 365 Customer Insights - Journeys Journeys mit KI-Unterstützung erstellen Nein Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben
Dynamics 365 Customer Insights - Journeys KI verwenden, um mit dem Erstellen von E-Mails zu beginnen Nein Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben
Dynamics 365 Customer Insights - Journeys Verwendung von Bildern in Inhalten Nein Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben
Dynamics 365 Customer Insights - Journeys Nachricht aktualisieren und perfektionieren Nein Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben
Dynamics 365 Customer Insights - Journeys Ihre E-Mails mit KI-gestützten Themen gestalten Nein Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen.

Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben

Verfügbarkeit nach Region und Sprache

Internationale Verfügbarkeit von Copilot

Datenverschiebung über geografische Grenzen hinweg

Sicherheit bei Microsoft

Datenschutz bei Microsoft

Microsoft-Datenschutzbestimmungen

Verantwortliche KI