Häufig gestellte Fragen zur Datensicherheit und zum Datenschutz von Copilot bei Dynamics 365 und Power Platform
Copilot für Dynamics 365 und Power Platform bietet folgen eine Reihe grundlegender Sicherheits- und Datenschutzpraktiken und den Microsoft Responsible AI Standard. Die Daten von Dynamics 365 und Power Platform werden durch umfassende, branchenführende Compliance-, Sicherheits- und Datenschutzkontrollen geschützt.
Copilot basiert auf dem Microsoft Azure OpenAI Service und wird vollständig in der Azure-Cloud ausgeführt. Azure OpenAI bietet regionale Verfügbarkeit und verantwortungsvolle KI-Inhaltsfilterung. Copilot verwendet OpenAI-Modelle mit allen Sicherheitsfunktionen von Microsoft Azure. OpenAI ist eine unabhängige Organisation. Wir geben Ihre Daten nicht an OpenAI weiter.
Copilot-Funktionen sind nicht in allen Azure-Regionen und -Sprachen verfügbar. Je nachdem, wo Ihre Umgebung gehostet wird, müssen Sie möglicherweise die Datenverschiebung über Geografien hinweg zulassen, um sie nutzen zu können. Weitere Informationen finden Sie in den Artikeln unter Datenverschiebung über geografische Grenzen hinweg.
Was passiert mit meinen Daten, wenn ich Copilot verwende?
Sie haben die Kontrolle über Ihre Daten. Microsoft Teilen gibt Ihre Daten nicht an Dritte weiter, es sei denn, Sie haben hierzu Ihre Erlaubnis erteilt. Außerdem verwenden wir Ihre Kundendaten nicht, um Copilot oder seine KI-Funktionen zu trainieren, es sei denn, Sie haben uns hierzu Ihre Einwilligung erteilt. Copilot hält sich an bestehende Datenberechtigungen und -richtlinien, und seine Antworten an Sie basieren nur auf Daten, auf die sie persönlich Zugriff haben. Weitere Informationen darüber, wie Sie Ihre Daten kontrollieren können und wie mit Ihren Daten umgegangen wird, finden Sie in den unter Copilot in Dynamics 365-Apps und Power Platform aufgeführten Artikeln.
Copilot überwacht den Dienst mit vorübergehender Verarbeitung auf missbräuchliche oder schädliche Nutzung. Wir speichern die Copilot-Eingaben und -Ausgaben nicht und führen auch keine direkte Überprüfung zu Zwecken der Missbrauchsüberwachung durch.
Wie verwendet Copilot meine Daten?
Jeder Dienst oder jede Funktion nutzt Copilot auf der Grundlage der Daten, die Sie bereitgestellen oder für die Verarbeitung durch Copilot eingerichtet haben.
Ihre Eingabeaufforderungen (Eingaben) und die Antworten von Copilot (Ausgaben oder Ergebnisse):
Sind für andere Kunden bzw. Kundinnen NICHT verfügbar.
Werden NICHT zum Trainieren oder Verbessern von Drittanbieterprodukten oder -services (z. B. OpenAI-Modelle) verwendet.
Werden NICHT zum Trainieren oder Verbessern Microsoft KI-Modellen verwendet, es sei denn, Ihr Mandantenadministrator stimmt der Weitergabe von Daten an uns zu. Weitere Informationen finden Sie unter FAQ zur optionalen Datenfreigabe für Copilot AI-Funktionen in Dynamics 365 und Power Platform.
Erfahren Sie mehr über den OpenAI Datenschutz und die Sicherheit von Azure-Dienstdaten. Weitere Informationen dazu, wie Microsoft Ihre Daten im Allgemeinen schützt und verwendet, finden Sie in unserer Datenschutzerklärung.
Wohin gehen meine Daten?
Microsoft basiert auf Vertrauen. Wir fühlen uns bei allem, was wir tun, der Sicherheit, dem Datenschutz und der Compliance verpflichtet, und unser Ansatz in Bezug auf KI ist nicht anders. Kundendaten, einschließlich Copilot-Ein- und -Ausgaben, werden im Microsoft Cloud Trust Grenze gespeichert.
In einigen Szenarien, etwa bei Funktionen, die von Bing und Copilot-Plug-Ins von Drittanbietern unterstützt werden, können Kundendaten außerhalb des Microsoft Cloud Trust Grenze übertragen werden.
Kann Copilot auf verschlüsselte Inhalte zugreifen?
Die an Copilot übermittelten Daten werden basierend auf der Zugriffsebene des aktuellen Benutzenden bereitgestellt. Wenn ein Benutzender Zugriff auf die verschlüsselten Daten in Dynamics 365 und Power Platform hat und der Benutzende sie Copilot zur Verfügung stellt, kann Copilot darauf zugreifen.
Wie schützt Copilot Kundendaten?
Microsoft ist einzigartig positioniert, um unternehmensreife KI bereitzustellen. Copilot wird durch den Azure OpenAI-Dienst unterstützt und erfüllt die bestehenden Datenschutz-, Sicherheits- und regulatorischen Verpflichtungen gegenüber unserer Kundschaft.
Basierend auf Microsofts umfassendem Ansatz hinsichtlich Sicherheit, Datenschutz und Compliance. Copilot ist in Microsoft Dienste wie Dynamics 365 integriert und Power Platform erbt deren Sicherheits-, Datenschutz- und Compliance-Richtlinien und -Prozesse, wie etwa Multifaktor-Authentifizierung und Compliance-Grenzen.
Mehrere Schutzformen zum Schutz organisatorischer Daten. Serviceseitige Technologien verschlüsseln Unternehmensinhalte im Ruhezustand und während der Übertragung und sorgen so für eine robuste Sicherheit. Verbindungen werden mit Transport Ebene Security (TLS) geschützt und Datenübertragungen zwischen Dynamics 365 Power Platform und Azure OpenAI erfolgen über das Microsoft Backbone-Netzwerk, wodurch sowohl Zuverlässigkeit als auch Sicherheit gewährleistet werden. Erfahren Sie mehr über die Verschlüsselung in der Microsoft Cloud.
Entwickelt, um Ihre Daten sowohl auf Mandanten- als auch auf Umgebungsebene zu schützen. Wir wissen, dass Datenlecks für die Kundschaft ein Problem darstellen. Microsoft KI-Modelle werden nicht anhand Ihrer Mandantendaten oder Eingabeaufforderungen trainiert und lernen auch nicht daraus, es sei denn, Ihr Mandantenadministrator hat der Weitergabe von Daten an uns zugestimmt. Innerhalb Ihrer Umgebungen können Sie den Zugriff durch von Ihnen eingerichtete Berechtigungen steuern. Authentifizierungs- und Autorisierungsmechanismen trennen Anfragen an das gemeinsame Modell zwischen Mandanten. Copilot nutzt Daten, auf die nur Sie zugreifen können, und zwar mit der gleichen Technologie, die wir seit Jahren zum Schutz von Kundendaten verwenden.
Sind die Antworten von Copilot immer faktisch?
Wie bei jeder generativen KI entsprechen die Antworten von Copilot nicht hundertprozentig den Tatsachen. Auch wenn die Antworten auf faktenbasierte Anfragen immer weiter verbessert werden, sollten Sie dennoch ihr Urteilsvermögen nutzen und die Ergebnisse überprüfen, bevor sie sie an andere senden. Copilot bietet hilfreiche Entwürfe und Zusammenfassungen, die Ihnen dabei helfen, mehr zu tun, aber es ist vollautomatisch. Sie haben immer die Möglichkeit, die KI-generierten Inhalte zu überprüfen.
Unsere Teams arbeiten proaktiv an Problemen wie Falschinformationen und Desinformationen, Blockierung von Inhalten, Datensicherheit und Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren Grundsätzen für eine verantwortungsvolle KI.
Wir stellen auch Anleitungen für die Nutzererfahrung bereit, um den verantwortungsvollen Umgang mit KI-generierten Inhalten und vorgeschlagenen Aktionen zu fördern.
Anweisungen und Eingabeaufforderungen. Bei der Verwendung von Copilot erinnern Sie Eingabeaufforderungen und andere Anweisungselemente daran, die Antworten bei Bedarf zu überprüfen und zu bearbeiten sowie Fakten, Daten und Text manuell auf ihre Richtigkeit zu überprüfen, bevor Sie die KI-generierten Inhalte verwenden.
Quellenangaben. Gegebenenfalls zitiert Copilot seine Informationsquellen, ob öffentlich oder intern, damit Sie diese selbst überprüfen können, um seine Antworten zu bestätigen.
Weitere Informationen finden Sie in den Häufig gestellten Fragen zur verantwortungsvollen KI für Ihr Produkt auf Microsoft Learn.
Wie blockiert Copilot schädliche Inhalte?
Azure OpenAI Service umfasst ein Inhaltsfiltersystem, das neben den Kernmodellen funktioniert. Die Inhaltsfilterungsmodelle für die Kategorien „Hass und Fairness“, „Sexuell“, „Gewalt“ und „Selbstverletzung“ wurden speziell in verschiedenen Sprachen geschult und getestet. Dieses System funktioniert, indem es sowohl die Eingabeaufforderung als auch die Antwort durch Klassifizierungsmodelle laufen lässt, die darauf ausgelegt sind, schädliche Inhalte zu identifizieren und deren Ausgabe zu blockieren.
Mit Hass und Fairness verbundene Schäden beziehen sich auf alle Inhalte, die eine abwertende oder diskriminierende Sprache aufgrund von Merkmalen wie Rasse, ethnischer Zugehörigkeit, Nationalität, Geschlechtsidentität und -ausdruck, sexueller Orientierung, Religion, Einwanderungsstatus, Fähigkeitsstatus, persönlichem Aussehen und Körpergröße verwenden. Bei Fairness geht es darum, sicherzustellen, dass KI-Systeme alle Personengruppen gleich behandeln, ohne zu bestehenden gesellschaftlichen Ungleichheiten beizutragen. Zu den sexuellen Inhalten gehören Diskussionen über menschliche Fortpflanzungsorgane, romantische Beziehungen, erotisch oder liebevoll dargestellte Handlungen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich solcher, die als Körperverletzung oder erzwungene Handlung sexueller Gewalt dargestellt werden, Prostitution, Pornografie und Missbrauch. Gewalt beschreibt Sprache im Zusammenhang mit körperlichen Handlungen, die darauf abzielen, Schaden zuzufügen oder zu töten, einschließlich Handlungen, Waffen und verwandten Entitäten. Selbstverletzung bezieht sich auf vorsätzliche Handlungen, die darauf abzielen, sich selbst zu verletzen oder zu töten.
Erfahren Sie mehr über die OpenAI Inhaltsfilterung von Azure.
Blockiert Copilot Prompt-Injection-Angriffe (Jailbreak-Angriffe)?
Jailbreak-Angriffe sind Benutzeraufforderungen, die das generative KI-Modell dazu bringen sollen, sich auf eine Art und Weise zu verhalten, die es nicht sollte, oder die Regeln zu brechen, die ihm beigebracht wurden folgen. Zum Schutz vor Injektionen von Eingabeaufforderungen sind Dienste in Dynamics 365 und Power Platform erforderlich. Erfahren Sie mehr über Jailbreak-Angriffe und wie Sie diese mit Azure AI Content Safety erkennen können.
Blockiert Copilot indirekte Prompt-Injection-Angriffe (indirekte Angriffe)?
Indirekte Angriffe, auch als indirekte Prompt-Angriffe oder Cross-Domain-Prompt-Injection-Angriffe bezeichnet, stellen eine potenzielle Schwachstelle dar, bei der Dritte böswillige Anweisungen in Dokumente einfügen, auf die das generative KI-System zugreifen und die es verarbeiten kann. Zur Implementierung des Schutzes vor indirekten Prompt-Injection-Angriffen sind Dienste in Dynamics 365 und Power Platform erforderlich. Erfahren Sie mehr über indirekte Angriffe und wie Sie diese mit Azure AI Content Safety erkennen können.
Wie wird die Qualität von Copilot, einschließlich sofortigem Einspritzschutz und geerdeten Reaktionen, getestet und validiert? Microsoft
Jedes neue Copilot-Produkt und jede neue Sprachmodelliteration muss eine interne, verantwortungsvolle KI-Prüfung bestehen, bevor sie auf den Markt gebracht werden kann. Vor dem Release verwenden wir einen Prozess namens „Red Teaming“ (bei dem ein Team einen feindlichen Angriff simuliert und dabei Schwachstellen findet und ausnutzt, um der Organisation bei der Verbesserung ihrer Abwehrmechanismen zu helfen), um potenzielle Risiken in Bezug auf schädliche Inhalte, Jailbreak-Szenarien und fundierte Antworten zu bewerten. Nach dem Release verwenden wir automatisierte Tests sowie manuelle und automatisierte Bewertungstools, um die Qualität der Copilot-Antworten zu bewerten.
Wie lässt sich das Grundlagenmodell verbessern und wie lassen sich Verbesserungen bei fundierten Reaktionen messen? Microsoft
Im Kontext der KI, insbesondere der KI, die sich mit Sprachmodellen wie dem, auf dem Copilot basiert, befasst, hilft Grounding der KI, Antworten zu generieren, die in der realen Welt relevanter und sinnvoller sind. Durch das Grounding wird sichergestellt, dass die Antworten der KI auf zuverlässigen Informationen basieren und so genau und relevant wie möglich sind. Mit fundierten Antwortmetriken wird bewertet, wie genau die in den dem Modell bereitgestellten fundierten Inhalten dargelegten Fakten in der endgültigen Antwort dargestellt werden.
Die Grundlagenmodelle wie GPT-4 werden durch RAG-Techniken (Retrieval Augmented Generation) erweitert. Diese Techniken ermöglichen es den Modellen, mehr Informationen zu nutzen, als sie trainiert wurden, um das Szenario eines Benutzenden zu verstehen. RAG identifiziert zunächst Daten, die für das Szenario relevant sind, ähnlich wie eine Suchmaschine Webseiten identifiziert, die für die Suchbegriffe des Benutzenden relevant sind. Es verwendet mehrere Ansätze, um zu ermitteln, welche Inhalte für die Benutzeraufforderung relevant sind und zur Begründung der Antwort verwendet werden sollten. Zu den Ansätzen gehört die Suche nach verschiedenen Arten von Indizes, beispielsweise invertierten Indizes unter Verwendung von Informationsabfragetechniken wie Term Matching oder Vektorindizes unter Verwendung von Vektorabstandsvergleichen für semantische Ähnlichkeit. Nachdem die relevanten Dokumente identifiziert wurden, übergibt RAG die Daten zusammen mit der aktuellen Unterhaltung an das Modell und gibt dem Modell so mehr Kontext, um die bereits vorhandenen Informationen besser zu verstehen und eine Antwort zu generieren, die auf der realen Welt basiert. Abschließend überprüft RAG die Antwort, um sicherzustellen, dass sie von dem Quellinhalt unterstützt wird, den es dem Modell bereitgestellt hat. Die generativen KI-Funktionen von Copilot integrieren RAG auf verschiedene Weise. Ein Beispiel ist der Chat mit Daten, bei dem ein Chatbot mit den eigenen Datenquellen der Kundschaft verknüpft wird.
Eine weitere Methode zur Verbesserung grundlegender Modelle ist die Feinabstimmung. Ein großes DataSet von Abfrage-Antwort-Paaren wird einem Basismodell angezeigt, um sein ursprüngliches Training mit neuen Beispielen zu ergänzen, die auf ein bestimmtes Szenario ausgerichtet sind. Das Modell kann dann als separates Modell bereitgestellt werden – als Modell, das genau auf das jeweilige Szenario abgestimmt ist. Während es beim Grounding darum geht, das Wissen der KI für die reale Welt relevant zu machen, geht es bei der Feinabstimmung darum, das Wissen der KI spezifischer für eine bestimmte Aufgabe oder Domäne zu machen. Microsoft nutzt die Feinabstimmung auf vielfältige Weise. Beispielsweise verwenden wir die Power Automate-Flowerstellung aus den vom Benutzer bereitgestellten Beschreibungen in natürlicher Sprache.
Erfüllt Copilot die Anforderungen an die Einhaltung gesetzlicher Vorschriften?
Microsoft Copilot ist Teil von Dynamics 365 und dem Power Platform-Ökosystem und erfüllt die gleichen Anforderungen an die Einhaltung gesetzlicher Vorschriften. Weitere Informationen zu den behördlichen Zertifizierungen von Microsoft Diensten finden Sie im Service Trust Portal. Darüber hinaus hält sich Copilot an unsere Verpflichtung zu verantwortungsvoller KI, die über unseren Standard für verantwortungsvolle KI umgesetzt wird. Im Zuge der Weiterentwicklung der KI-Regulierung werden diese Microsoft fortwährend angepasst und auf neue Anforderungen reagiert.
Erfahren Sie mehr
Copilot in Dynamics 365-Apps und Power Platform
Produkt | Feature | Verwaltete Umgebungen erforderlich? | So deaktivieren Sie die Funktion |
---|---|---|---|
AI Builder | Szenarien in Vorschauversion | Nr. | Szenarien in Vorschauversion |
Copilot Studio | KI-Allgemeinwissen | Nr. | Copilot Studio Sicherheit und Governance |
Copilot Studio | Themen erstellen und bearbeiten mit Copilot | Nr. | Copilot Studio Sicherheit und Governance |
Copilot Studio | Generative Aktionen | Nr. | Copilot Studio Sicherheit und Governance |
Copilot Studio | Generative Antworten | Nr. | Copilot Studio Sicherheit und Governance |
Dynamics 365 Business Central | Alle (Die vollständige Liste finden Sie unter aka.ms/bcAI.) | Nr. | Funktionen aktivieren |
Dynamics 365 Customer Insights - Data | Erstellen Sie Segmente mit Copilot für Customer Insights - Data (Vorschauversion) | Nein | Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben |
Dynamics 365 Customer Insights - Data | Übersicht über den Datenvorbereitungsbericht (Vorschauversion) | Nein | Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben |
Dynamics 365 Customer Insights - Data | Erhalten Sie Antworten auf Fragen zu Funktionen von Copilot (Vorschauversion) | Nein | Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben |
Dynamics 365 Customer Insights (Daten) | Führen Sie einen Dialog mit Daten mithilfe von Copilot in Customer Insights | Nein | Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben |
Dynamics 365 Customer Insights - Data | Systemkonfiguration anzeigen | Nein | Customer Insights - Data hat für alle seine Copilot-Funktionen von Azure OpenAI ein eigenes Kennzeichen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Data geben |
Dynamics 365 Customer Insights - Journeys | Copilot hilft Ihnen, mehr zu lernen und zu tun (Testbericht) | Nein | Ob dieser Copilot in Ihrer Umgebung verfügbar ist, wird durch die Power Platform-Administratoreinstellungen festgelegt. Erfahren Sie, wie Sie Copilot für modellgesteuerte Apps hinzufügen. Diese Funktion heißt „App-Copilot in Customer Insights - Journeys“ und ist deshalb in Power Platform Admin Center aktiviert. Weitere Informationen: Häufig gestellte Fragen zu verantwortungsvoller KI |
Dynamics 365 Customer Insights - Journeys | Erstellen Sie Reisen mithilfe von KI | Nein | Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben |
Dynamics 365 Customer Insights - Journeys | Aktualisieren und perfektionieren Sie Ihre Nachricht | Nein | Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben |
Dynamics 365 Customer Insights - Journeys | Stil Ihre E-Mails mit KI-gestützten Themen | Nein | Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben |
Dynamics 365 Customer Insights - Journeys | Mit der Abfragehilfe die richtigen Kunden ansprechen |
Nein | Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben |
Dynamics 365 Customer Insights - Journeys | Nutzen Sie KI, um mit der E-Mail-Erstellung zu beginnen | Nein | Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben |
Dynamics 365 Customer Insights - Journeys | Verwenden Sie Bilder in Ihren Inhalten | Nein | Customer Insights - Journeys hat seine eigenen Kennzeichen für Copilot-Funktionen. Weitere Informationen: Zustimmung zur Verwendung von Copilot in Customer Insights - Journeys geben |
Dynamics 365 Customer Service | E-Mail verfassen | Nr. | Copilot-Funktionen in Kundenservice verwalten |
Dynamics 365 Customer Service | Entwerfe einen Chat Antwort | Nr. | Copilot-Funktionen in Kundenservice verwalten |
Dynamics 365 Customer Service | Auf Fragen antworten | Nr. | Copilot-Funktionen in Kundenservice verwalten |
Dynamics 365 Customer Service | Einen Fall und ein Gespräch zusammenfassen | Nr. | Copilot-Funktionen in Kundenservice verwalten |
Power Apps | Erstellen Sie Apps durch Konversation | Nr. | Funktionseinstellungen verwalten |
Power Apps | Copilot-Unterstützung beim Ausfüllen von Formularen in modellgesteuerten Apps | Nein | Funktionseinstellungen verwalten |
Power Apps | Gut geschriebene Entwürfe erstellen, Texteingabe mit Copilot | Nein, Premium-Benutzerlizenz | Gut geschriebene Entwürfe erstellen, Texteingabe mit Copilot |
Power Apps | Excel in Tabelle | Nein | Funktionseinstellungen verwalten |
Power Apps | Verwenden Sie natürliche Sprache, um eine App über das Copilot-Bedienfeld zu bearbeiten | Nein | Funktionseinstellungen verwalten |
Power Automate | Copilot in Cloud-Flows auf der Startseite und im Designer (siehe Erste Schritte mit Copilot in Cloud-Flows für Details.) | Nein | Wenden Sie sich an den Support, um ein PowerShell-Skript auszuführen. |
Power Pages | Alle (Einzelheiten finden Sie unter Überblick über Copilot in Power Pages.) | Nein | Schalten Sie Copilot aus in Power Pages |
Weitere Informationen finden Sie unter FAQ zur optionalen Datenfreigabe für Copilot AI-Funktionen in Dynamics 365 und Power Platform.
Verfügbarkeit nach Region und Sprache
Internationale Verfügbarkeit von Copilot
Datenverschiebung über geografische Grenzen hinweg
- So funktioniert die Datenverschiebung zwischen Regionen
- Konfigurieren Sie die Datenbewegung über geografische Standorte hinweg für generative KI-Funktionen außerhalb der USA
- Copilot-Datenbewegung über geografische Grenzen hinweg in Dynamics 365 Sales
- Copilot-Datenbewegung über geografische Grenzen hinweg in Dynamics 365 Business Central
Sicherheit bei Microsoft
- Einführung in die Azure-Sicherheit
- Verschlüsselung im Microsoft Wolke
- Daten, Datenschutz und Sicherheit für Azure OpenAI Dienst – Azure AI-Dienste
Datenschutz bei Microsoft
Microsoft Datenschutzerklärung