Daten, Datenschutz und Sicherheit für Microsoft Copilot für Microsoft 365
Microsoft Copilot für Microsoft 365 ist eine ausgereifte Verarbeitungs- und Orchestrierungs-Engine, die KI-gestützte Produktivitätsfunktionen bereitstellt, indem die folgenden Komponenten koordiniert werden:
- Große Sprachmodelle (LLMs)
- Inhalte in Microsoft Graph, wie z.B. E-Mails, Chats und Dokumente, für die Sie die Berechtigung haben, darauf zuzugreifen.
- Die Microsoft 365-Apps, die Sie täglich nutzen, wie Word und PowerPoint.
Eine Übersicht über die Zusammenarbeit dieser drei Komponenten finden Sie unter Übersicht über Microsoft Copilot für Microsoft 365. Links zu anderen Inhalten im Zusammenhang mit Microsoft Copilot für Microsoft 365 finden Sie in der Dokumentation zu Microsoft Copilot für Microsoft 365.
Wichtig
- Microsoft Copilot für Microsoft 365 erfüllt unsere bestehenden Datenschutz-, Sicherheits- und Complianceverpflichtungen gegenüber Kommerziellen Microsoft 365-Kunden, einschließlich der Datenschutz-Grundverordnung (DSGVO) und der Datenbegrenzung der Europäischen Union (EU).
- Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht zum Trainieren grundlegender LLMs verwendet, einschließlich derer, die von Microsoft Copilot für Microsoft 365 verwendet werden.
Die Informationen in diesem Artikel sollen Ihnen helfen, Antworten auf die folgenden Fragen zu finden:
- Wie verwendet Microsoft Copilot für Microsoft 365 Ihre proprietären Organisationsdaten?
- Wie schützt Microsoft Copilot für Microsoft 365 Organisationsinformationen und -daten?
- Welche Daten werden zu Benutzerinteraktionen mit Microsoft Copilot für Microsoft 365 gespeichert?
- Welche Verpflichtungen zur Datenresidenz übernimmt Microsoft Copilot?
- Kann Microsoft Copilot für Microsoft 365 öffentliche Webinhalte in seinen Antworten verwenden?
- Welche Erweiterbarkeitsoptionen sind für Microsoft Copilot für Microsoft 365 verfügbar?
- Wie erfüllt Microsoft Copilot für Microsoft 365 gesetzliche Complianceanforderungen?
- Gelten Steuerelemente für verbundene Erfahrungen in Microsoft 365 Apps für Microsoft Copilot für Microsoft 365?
- Kann ich dem Inhalt vertrauen, den Microsoft Copilot für Microsoft 365 erstellt? Wer besitzt diese Inhalte?
- Welche Verpflichtungen hat Microsoft, um KI verantwortungsvoll zu verwenden?
Hinweis
Microsoft Copilot für Microsoft 365 wird sich im Laufe der Zeit mit neuen Funktionen weiterentwickeln. Wenn Sie über Microsoft Copilot für Microsoft 365 auf dem Laufenden bleiben oder Fragen stellen möchten, besuchen Sie die Microsoft 365 Copilot Community auf der Microsoft Tech Community.
Wie verwendet Microsoft Copilot für Microsoft 365 Ihre proprietären Organisationsdaten?
Microsoft Copilot für Microsoft 365 bietet einen Mehrwert, indem LLMs mit Ihren Organisationsdaten verbunden werden. Microsoft Copilot für Microsoft 365 greift über Microsoft Graph auf Inhalte und Kontext zu. Es kann Antworten generieren, die in Ihren Organisationsdaten verankert sind, wie z. B. Benutzerdokumente, E-Mails, Kalender, Chats, Besprechungen und Kontakte. Microsoft Copilot für Microsoft 365 kombiniert diesen Inhalt mit dem Arbeitskontext des Benutzers, z. B. der Besprechung, in der sich ein Benutzer gerade befindet, dem E-Mail-Austausch des Benutzers zu einem Thema oder den Chatunterhaltungen, die der Benutzer in der letzten Woche geführt hat. Microsoft Copilot für Microsoft 365 verwendet diese Kombination aus Inhalt und Kontext, um genaue, relevante und kontextbezogene Antworten bereitzustellen.
Wichtig
Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht zum Trainieren grundlegender LLMs verwendet, einschließlich derer, die von Microsoft Copilot für Microsoft 365 verwendet werden.
Microsoft Copilot für Microsoft 365 zeigt nur Organisationsdaten an, für die einzelne Benutzer mindestens über Ansichtsberechtigungen verfügen. Es ist wichtig, dass Sie die Berechtigungsmodelle verwenden, die in Microsoft 365-Diensten wie SharePoint verfügbar sind, um sicherzustellen, dass die richtigen Benutzer oder Gruppen den richtigen Zugriff auf die richtigen Inhalte in Ihrer Organisation haben. Dies umfasst Berechtigungen, die Sie Benutzern außerhalb Ihrer organization über mandantenübergreifende Lösungen für die Zusammenarbeit erteilen, z. B. freigegebene Kanäle in Microsoft Teams.
Wenn Sie Mithilfe von Microsoft Copilot für Microsoft 365 Eingabeaufforderungen eingeben, verbleiben die in Ihren Eingabeaufforderungen enthaltenen Informationen, die von ihnen abgerufenen Daten und die generierten Antworten innerhalb der Microsoft 365-Dienstgrenze, im Einklang mit unseren aktuellen Datenschutz-, Sicherheits- und Complianceverpflichtungen. Microsoft Copilot für Microsoft 365 verwendet Azure OpenAI-Dienste für die Verarbeitung, nicht die öffentlich verfügbaren Dienste von OpenAI.
Hinweis
Wenn Sie Microsoft Copilot für Microsoft 365 verwenden, verlassen die Daten Ihrer organization unter den folgenden Umständen möglicherweise die Microsoft 365-Dienstgrenze:
- Wenn Sie zulassen, dass Microsoft Copilot für Microsoft 365-Chaterfahrungen auf öffentliche Webinhalte verweisen. Die an Bing gesendete Abfrage kann die Daten Ihrer organization enthalten. Weitere Informationen finden Sie unter Microsoft Copilot für Microsoft 365 und öffentliche Webinhalte.
- Wenn Sie Plug-Ins verwenden, um Microsoft Copilot für Microsoft 365 bei der Bereitstellung relevanterer Informationen zu unterstützen. Überprüfen Sie die Datenschutzerklärung und die Nutzungsbedingungen des Plug-Ins, um zu bestimmen, wie es mit den Daten Ihrer organization umgeht. Weitere Informationen finden Sie unter Erweiterbarkeit von Microsoft Copilot für Microsoft 365.
Die Missbrauchsüberwachung für Microsoft Copilot für Microsoft 365 erfolgt in Echtzeit, ohne Microsoft ständigen Zugriff auf Kundendaten zu gewähren, entweder für menschliche zwecke oder zur automatisierten Überprüfung. Während die Missbrauchsmoderation, die die überprüfung von Inhalten durch Menschen umfasst, in Azure OpenAI verfügbar ist, hat Microsoft Copilot für Microsoft 365-Dienste dies deaktiviert. Microsoft 365-Daten werden von Azure OpenAI nicht gesammelt oder gespeichert.
Hinweis
Wir können das optionale Kundenfeedback verwenden, um Microsoft Copilot für Microsoft 365 zu verbessern, genau wie wir Kundenfeedback verwenden, um andere Microsoft 365-Dienste und Microsoft 365-Apps zu verbessern. Wir verwenden dieses Feedback nicht zum Trainieren der grundlegenden LLMs, die von Microsoft Copilot für Microsoft 365 verwendet werden. Kunden können Feedback über Administratorsteuerelemente verwalten. Weitere Informationen finden Sie unter Verwalten von Microsoft-Feedback für Ihre organization und Bereitstellen von Feedback zu Microsoft Copilot für Microsoft 365.
Gespeicherte Daten zu Benutzerinteraktionen mit Microsoft Copilot für Microsoft 365
Wenn ein Benutzer mit Microsoft Copilot für Microsoft 365-Apps (z. B. Word, PowerPoint, Excel, OneNote, Loop oder Whiteboard) interagiert, speichern wir Daten zu diesen Interaktionen. Die gespeicherten Daten umfassen die Eingabeaufforderung des Benutzers, wie Copilot reagiert hat, und Informationen, die verwendet werden, um die Antwort von Copilot zu grounden. Diese gespeicherten Daten stellen Benutzern beispielsweise den Copilot-Interaktionsverlauf in Microsoft 365 Chat und Besprechungen in Microsoft Teams zur Verfügung. Diese Daten werden in Übereinstimmung mit vertraglichen Verpflichtungen mit den anderen Inhalten Ihrer organization in Microsoft 365 verarbeitet und gespeichert. Die Daten werden verschlüsselt, während sie gespeichert sind, und nicht zum Trainieren von grundlegenden LLMs verwendet, einschließlich der von Microsoft Copilot für Microsoft 365 verwendeten LLMs.
Um diese gespeicherten Daten anzuzeigen und zu verwalten, können Administratoren die Inhaltssuche oder Microsoft Purview verwenden. Administratoren können auch Microsoft Purview verwenden, um Aufbewahrungsrichtlinien für die Daten im Zusammenhang mit Chatinteraktionen mit Copilot festzulegen. Weitere Informationen finden Sie in den folgenden Artikeln:
- Übersicht über die Inhaltssuche
- Microsoft Purview-Datenschutz und Complianceschutz für Microsoft Copilot
- Informationen zur Aufbewahrung für Copilot für Microsoft 365
Für Microsoft Teams-Chats mit Copilot können Administratoren auch Microsoft Teams-Export-APIs verwenden, um die gespeicherten Daten anzuzeigen.
Löschen des Verlaufs von Benutzerinteraktionen mit Microsoft Copilot für Microsoft 365
Um den Verlauf der Interaktionen eines Benutzers mit Microsoft Copilot für Microsoft 365 zu löschen, einschließlich Benutzeraufforderungen und antworten, die Copilot zurückgibt, können Microsoft 365-Administratoren ein Onlinesupportticket im Microsoft 365 Admin Center übermitteln. In diesem Ticket sollten Administratoren ihre Mandanten-ID und die Objekt-ID des Benutzers enthalten, für die daten gelöscht werden sollen. Das Ticket markiert den Verlauf für die dauerhafte, endgültige Löschung. Öffnen Sie für neue Anforderungen ein neues Ticket mit Support, und vermeiden Sie die Bearbeitung Ihrer vorhandenen Anforderungen.
Microsoft Copilot für Microsoft 365 und die EU-Datengrenze
Microsoft Copilot für Microsoft 365-Aufrufe an die LLM werden an die nächstgelegenen Rechenzentren in der Region weitergeleitet, können aber auch andere Regionen aufrufen, in denen kapazität in Zeiten mit hoher Auslastung verfügbar ist.
Für Benutzer aus der Europäischen Union (EU) haben wir zusätzliche Sicherheitsvorkehrungen getroffen, um die EU-Datengrenze einzuhalten. Der EU-Datenverkehr bleibt innerhalb der EU-Datengrenze, während der weltweite Datenverkehr zur LLM-Verarbeitung in die EU und andere Länder oder Regionen geschickt werden kann.
Microsoft Copilot für Microsoft 365 und Datenresidenz
Kunden mit Advanced Data Residency (ADR) in Microsoft 365 oder Microsoft 365 Multi-Geo können Microsoft Copilot für Microsoft 365 erwerben und aktivieren. Microsoft bietet derzeit keine Datenresidenzverpflichtungen für Microsoft Copilot für Microsoft 365 über die EU-Datengrenze hinaus. Wenn Kunden von Copilot generierte Daten in Microsoft 365-Produkten speichern, für die gemäß den Produktbedingungen Verpflichtungen zur Datenresidenz gelten, werden die geltenden Verpflichtungen eingehalten.
Microsoft Copilot für Microsoft 365 und öffentliche Webinhalte
Microsoft Copilot für Microsoft 365-Chaterfahrungen können auf öffentliche Webinhalte verweisen, wenn sie auf die Aufforderung eines Benutzers reagieren. Basierend auf der Eingabeaufforderung des Benutzers bestimmt Microsoft Copilot für Microsoft 365, ob Bing verwendet werden muss, um öffentliche Webinhalte abzufragen, um dem Benutzer eine relevante Antwort zu geben.
Wenn Microsoft Copilot für Microsoft 365 feststellt, dass Webinhalte eine relevantere Antwort liefern können, wird eine Suchabfrage generiert, die an Bing gesendet werden soll. Diese Suchabfrage basiert auf der Eingabeaufforderung des Benutzers, dem Copilot-Interaktionsverlauf und den Daten, auf die der Benutzer in Microsoft 365 Zugriff hat. Diese Abfrage kann die Daten Ihrer organization enthalten, aber das Konto des Benutzers und seine Mandanten-ID sind in der an Bing gesendeten Suchabfrage nicht enthalten.
Microsoft Bing ist ein separates Unternehmen von Microsoft 365, und Die Daten werden unabhängig von Microsoft 365 verwaltet. Die Verwendung von Bing ist durch den Microsoft-Servicevertrag zwischen jedem Benutzer und Microsoft sowie durch die Microsoft-Datenschutzerklärung abgedeckt. Der Nachtrag zum Datenschutz von Microsoft-Produkten und -Diensten (DPA) gilt nicht für die Verwendung von Bing.
Administratoren können verhindern, dass ihre Benutzer in ihren Anforderungen auf öffentliche Webinhalte verweisen. Weitere Informationen finden Sie unter Verwalten des Zugriffs auf öffentliche Webinhalte in Microsoft Copilot für Microsoft 365-Antworten. Auch wenn der Administrator dies erlaubt, haben Benutzer weiterhin die Möglichkeit, in ihren Anforderungen auf öffentliche Webinhalte zu verweisen. Weitere Informationen finden Sie unter Verwenden zusätzlicher Datenquellen mit Microsoft 365 Copilot.
Hinweis
Die Richtlinieneinstellungen, die die Verwendung optionaler verbundener Erfahrungen in Microsoft 365 Apps steuern, gelten nicht für Microsoft Copilot für Microsoft 365 und öffentliche Webinhalte.
Erweiterbarkeit von Microsoft Copilot für Microsoft 365
Während Microsoft Copilot für Microsoft 365 bereits in der Lage ist, die Apps und Daten innerhalb des Microsoft 365-Ökosystems zu verwenden, sind viele Organisationen immer noch auf verschiedene externe Tools und Dienste für die Arbeitsverwaltung und Zusammenarbeit angewiesen. Microsoft Copilot für Microsoft 365-Erfahrungen können auf Tools und Dienste von Drittanbietern verweisen, wenn sie auf die Anforderung eines Benutzers mithilfe von Microsoft Graph-Connectors oder -Plug-Ins antworten. Daten von Graph-Connectors können in Microsoft Copilot für Microsoft 365-Antworten zurückgegeben werden, wenn der Benutzer über die Berechtigung zum Zugriff auf diese Informationen verfügt.
Wenn Plug-Ins aktiviert sind, bestimmt Microsoft Copilot für Microsoft 365, ob ein bestimmtes Plug-In verwendet werden muss, um dem Benutzer eine relevante Antwort zu geben. Wenn ein Plug-In benötigt wird, generiert Microsoft Copilot für Microsoft 365 eine Suchabfrage, die im Namen des Benutzers an das Plug-In gesendet werden soll. Die Abfrage basiert auf der Eingabeaufforderung des Benutzers, dem Copilot-Interaktionsverlauf und den Daten, auf die der Benutzer in Microsoft 365 Zugriff hat.
Im Abschnitt Integrierte Apps des Microsoft 365 Admin Center können Administratoren die berechtigungen und datenzugriffe anzeigen, die für ein Plug-In erforderlich sind, sowie die Nutzungsbedingungen und Datenschutzbestimmungen des Plug-Ins. Administratoren haben die volle Kontrolle darüber, welche Plug-Ins in ihren organization zulässig sind. Ein Benutzer kann nur auf die Plug-Ins zugreifen, die sein Administrator zulässt und die der Benutzer installiert hat oder zugewiesen ist. Microsoft Copilot für Microsoft 365 verwendet nur Plug-Ins, die vom Benutzer aktiviert werden.
Hinweis
Die Richtlinieneinstellungen, die die Verwendung optionaler verbundener Erfahrungen in Microsoft 365 Apps steuern, gelten nicht für Plug-Ins.
Weitere Informationen finden Sie in den folgenden Artikeln:
- Verwalten von Plug-Ins für Copilot in integrierten Apps
- Erweitern von Microsoft Copilot für Microsoft 365
- Wie Microsoft Copilot für Microsoft 365 mit Ihren externen Daten arbeiten kann
Wie schützt Microsoft Copilot für Microsoft 365 Organisationsdaten?
Mit dem Berechtigungsmodell in Ihrem Microsoft 365- Mandanten kann sichergestellt werden, dass Daten nicht versehentlich zwischen Benutzern, Gruppen und Mandanten offengelegt werden. Microsoft Copilot für Microsoft 365 stellt nur Daten bereit, auf die jede Person zugreifen kann, indem die gleichen zugrunde liegenden Steuerelemente für den Datenzugriff verwendet werden, die in anderen Microsoft 365-Diensten verwendet werden. Der semantische Index beachtet die auf der Benutzeridentität basierende Zugriffsgrenze, so dass der Grounding-Prozess nur auf Inhalte zugreift, für die der aktuelle Benutzer eine Zugriffsberechtigung hat. Weitere Informationen finden Sie in den Datenschutzrichtlinien und in der Dokumentation der Dienste von Microsoft.
Wenn Sie über Daten verfügen, die von Microsoft Purview Information Protection verschlüsselt wurden, berücksichtigt Microsoft Copilot für Microsoft 365 die dem Benutzer gewährten Nutzungsrechte. Diese Verschlüsselung kann durchVertraulichkeitsbezeichnungen oder durch eingeschränkte Berechtigungen in Microsoft 365-Apps unter Verwendung von Information Rights Management (IRM) angewendet werden. Weitere Informationen zur Verwendung von Microsoft Purview mit Microsoft Copilot für Microsoft 365 finden Sie unter Microsoft Purview-Datenschutz und Complianceschutz für Microsoft Copilot.
Wir implementieren bereits mehrere Arten des Schutzes, um zu verhindern, dass Kunden Microsoft 365-Dienste und -Anwendungen gefährden oder nicht autorisierten Zugriff auf andere Mandanten oder das Microsoft 365 System selbst erhalten. Hier sind einige Beispiele für diese Formen des Schutzes:
Die logische Isolation von Kundeninhalten innerhalb der einzelnen Mandanten für Microsoft 365-Dienste wird durch Microsoft Entra Autorisierung und rollenbasierte Zugriffssteuerung erreicht. Weitere Informationen finden Sie unter Microsoft 365 Isolationssteuerelemente.
Microsoft verwendet strenge physische Sicherheit, Hintergrundprüfung und eine mehrschichtige Verschlüsselungsstrategie, um die Vertraulichkeit und Integrität von Kundeninhalten zu schützen.
Microsoft 365 verwendet dienstseitige Technologien, die Ruhe- und Transitinhalte von Kunden verschlüsseln, einschließlich BitLocker, dateibasierter Verschlüsselung, Transport Layer Security (TLS) und Internetprotokollsicherheit (Internet Protocol Security, IPsec). Spezifische Informationen zur Verschlüsselung in Microsoft 365 finden Sie unter Verschlüsselung in der Microsoft Cloud.
Ihre Kontrolle über Ihre Daten wird durch Microsofts Verpflichtung zur Einhaltung allgemein geltender Datenschutzgesetze, wie z. B. der GDPR, und von Datenschutzstandards, wie z. B. ISO/IEC 27018, dem weltweit ersten internationalen Verhaltenskodex für den Datenschutz in der Cloud, verstärkt.
Bei Inhalten, auf die über Microsoft Copilot für Microsoft 365-Plug-Ins zugegriffen wird, kann die Verschlüsselung den programmgesteuerten Zugriff ausschließen und somit den Zugriff des Plug-Ins auf den Inhalt einschränken. Weitere Informationen finden Sie unter Konfigurieren von Nutzungsrechten für Azure-Informationsschutz.
Besprechung der Anforderungen zur Einhaltung von Vorschriften
Mit der Weiterentwicklung der Regulierung im KI-Bereich wird Microsoft sich weiterhin anpassen und reagieren, um zukünftige gesetzliche Anforderungen zu erfüllen.
Microsoft Copilot für Microsoft 365 basiert auf den aktuellen Verpflichtungen von Microsoft zur Datensicherheit und zum Datenschutz im Unternehmen. Diese Verpflichtungen werden sich nicht ändern. Microsoft Copilot für Microsoft 365 ist in Microsoft 365 integriert und hält alle bestehenden Datenschutz-, Sicherheits- und Complianceverpflichtungen gegenüber kommerziellen Microsoft 365-Kunden ein. Weitere Informationen finden Sie unter Microsoft Compliance.
Über die Einhaltung der Vorschriften hinaus legen wir großen Wert auf einen offenen Dialog mit unseren Kunden, Partnern und Rechtsgrundlagenbehörden, um Bedenken besser zu verstehen und auszuräumen und so ein Klima des Vertrauens und der Zusammenarbeit zu fördern. Wir sind uns darüber im Klaren, dass Datenschutz, Sicherheit und Transparenz in der KI-getriebenen Landschaft bei Microsoft nicht nur Merkmale, sondern Voraussetzungen sind.
Weitere Informationen
Microsoft Copilot für Microsoft 365 und Richtlinieneinstellungen für verbundene Umgebungen
Wenn Sie verbundene Erfahrungen deaktivieren, die Inhalte für Microsoft 365 Apps auf Windows- oder Mac-Geräten in Ihrem organization analysieren, stehen Microsoft Copilot für Microsoft 365-Features für Ihre Benutzer in den folgenden Apps nicht zur Verfügung:
- Excel
- PowerPoint
- OneNote
- Outlook (klassisch)
- Word
Ebenso sind Microsoft Copilot für Microsoft 365-Features in diesen Apps auf Windows- oder Mac-Geräten nicht verfügbar, wenn Sie die Verwendung verbundener Erfahrungen für Microsoft 365 Apps deaktivieren.
Weitere Informationen zu diesen Richtlinieneinstellungen finden Sie in den folgenden Artikeln:
- Verwenden von Richtlinieneinstellungen zum Verwalten von Datenschutzsteuerelementen für Microsoft 365 Apps for Enterprise(für Windows)
- Einstellungen zum Verwalten von Datenschutzsteuerelementen für Office für Mac verwenden
Informationen zu den Inhalten, die Microsoft Copilot für Microsoft 365 erstellt
Die Antworten, die generative KI erzeugt, sind nicht garantiert zu 100 % sachlich. Wir arbeiten zwar weiterhin an der Verbesserung der Antworten, aber die Benutzer sollten dennoch ihr Urteilsvermögen verwenden, wenn sie die Ausgabe überprüfen, bevor sie sie an andere weiterleiten. Unsere Microsoft Copilot für Microsoft 365-Funktionen bieten nützliche Entwürfe und Zusammenfassungen, die Ihnen helfen, mehr zu erreichen, während Sie die generierte KI überprüfen können, anstatt diese Aufgaben vollständig zu automatisieren.
Wir arbeiten weiterhin an der Verbesserung von Algorithmen, um proaktiv Probleme wie Fehlinformationen und Desinformation, Inhaltsblockierung, Datensicherheit und Verhindern von Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren verantwortungsvollen KI-Grundsätzen zu reagieren.
Microsoft erhebt keinen Anspruch auf das Eigentum an der Ausgabe des Dienstes. Wir entscheiden jedoch nicht darüber, ob die Ausgabe eines Kunden urheberrechtlich geschützt oder gegenüber anderen Benutzern durchsetzbar ist. Das liegt daran, dass generative KI-Systeme ähnliche Antworten auf ähnliche Eingabeaufforderungen oder Anfragen von mehreren Kunden geben können. Folglich können mehrere Kunden Rechte an denselben oder im Wesentlichen ähnlichen Inhalten haben oder beanspruchen.
Wenn ein Dritter einen kommerziellen Kunden wegen Urheberrechtsverletzungen verklagt, weil er Microsofts Copilots oder die von ihnen erzeugte Ausgabe verwendet, verteidigen wir den Kunden und übernehmen die Kosten für nachteilige Urteile oder Vergleiche, die sich aus dem Rechtsstreit ergeben, sofern der Kunde die Schutzmechanismen und Inhaltsfilter verwendet hat, die wir in unsere Produkte eingebaut haben. Weitere Informationen finden Sie unter Microsoft kündigt neue Copilot Copyrightverpflichtung für Kunden an.
Verpflichtet zu verantwortungsvoller KI
Da die KI im Begriff ist, unser Leben zu verändern, müssen wir gemeinsam neue Regeln, Normen und Praktiken für den Einsatz und die Auswirkungen dieser Technologie festlegen. Microsoft ist seit 2017 auf dem Weg der verantwortungsvollen KI, als wir unsere Prinzipien und unseren Ansatz definiert haben, um sicherzustellen, dass diese Technologie auf eine Weise eingesetzt wird, die von ethischen Prinzipien gesteuert wird, die Menschen an erster Stelle setzen.
Bei Microsoft orientieren wir uns an unseren KI-Prinzipien, unserem Standard für verantwortungsvolle KI und jahrzehntelanger Forschung zu KI, Erdung und datenschutzgerechtem maschinellem Lernen. Ein multidisziplinäres Team aus Forschern, Ingenieuren und Richtlinienexperten überprüft unsere KI-Systeme auf potenzielle Schäden und Minderungen: Optimieren der Trainingsdaten, Filterung zur Begrenzung schädlicher Inhalte, Abfragen und Ergebnisblockierung vertraulicher Themen und Anwenden von Microsoft-Technologien wie InterpretML und Fairlearn, um Datenverzerrung zu erkennen und zu korrigieren. Wir machen deutlich, wie das System Entscheidungen trifft, indem wir auf Einschränkungen hinweisen, auf Quellen verlinken und die Benutzer auffordern, Inhalte zu überprüfen, zu verifizieren und auf der Grundlage ihrer Fachkenntnisse anzupassen. Weitere Informationen finden Sie unter KI-Governance: Ein Plan für die Zukunft.
Wir wollen unsere Kunden dabei unterstützen, unsere KI-Produkte verantwortungsvoll zu nutzen, unsere Erfahrungen zu teilen und vertrauensvolle Partnerschaften aufzubauen. Für diese neuen Dienste möchten wir unseren Kunden Informationen zu den beabsichtigten Verwendungszwecken, Funktionen und Einschränkungen unseres KI-Plattformdienstes zur Verfügung stellen, damit sie über das nötige Wissen verfügen, um verantwortungsbewusste Entscheidungen für den Einsatz zu treffen. Wir geben auch Ressourcen und Vorlagen für Entwickler innerhalb von Organisationen und für unabhängige Softwareanbieter (ISVs) frei, damit diese effektive, sichere und transparente KI-Lösungen entwickeln können.
Verwandte Artikel
Feedback
Feedback senden und anzeigen für