Freigeben über


Daten, Datenschutz und Sicherheit für Microsoft 365 Copilot

Microsoft 365 Copilot ist eine ausgereifte Verarbeitungs- und Orchestrierungs-Engine, die KI-gestützte Produktivitätsfunktionen bietet, indem die folgenden Komponenten koordiniert werden:

  • Große Sprachmodelle (LLMs)
  • Inhalte in Microsoft Graph, wie z.B. E-Mails, Chats und Dokumente, für die Sie die Berechtigung haben, darauf zuzugreifen.
  • Die Microsoft 365 Produktivitäts-Apps, die Sie täglich verwenden, z. B. Word und PowerPoint.

Eine Übersicht darüber, wie diese drei Komponenten zusammenarbeiten, finden Sie unter Microsoft 365 Copilot Übersicht. Links zu anderen Inhalten im Zusammenhang mit Microsoft 365 Copilot finden Sie unter Microsoft 365 Copilot Dokumentation.

Wichtig

  • Microsoft 365 Copilot entspricht unseren bestehenden Datenschutz-, Sicherheits- und Compliance-Verpflichtungen gegenüber kommerziellen Microsoft 365-Kunden, einschließlich der General Data Protection Regulation (GDPR) und der EU-Datenschutzgrundverordnung (European Union (EU) Data Boundary).
  • Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht für das Training von Foundation LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.
  • Microsoft 365 Copilot arbeitet mit mehreren Schutzmaßnahmen, einschließlich, aber nicht beschränkt auf, das Blockieren schädlicher Inhalte, Erkennen von geschütztem Materialund Blockieren von Prompt Injections (Jailbreak-Angriffen).

Die Informationen in diesem Artikel sollen Ihnen helfen, Antworten auf die folgenden Fragen zu finden:

Hinweis

Microsoft 365 Copilot wird sich im Laufe der Zeit mit neuen Funktionen weiterentwickeln. Um über Microsoft 365 Copilot auf dem Laufenden zu bleiben oder Fragen zu stellen, besuchen Sie die Microsoft 365 Copilot-Community in der Microsoft Tech Community.

Wie verwendet Microsoft 365 Copilot Ihre geschützten Organisationsdaten?

Microsoft 365 Copilot bietet einen Mehrwert durch die Verbindung von LLMs mit Ihren Organisationsdaten. Microsoft 365 Copilot greift auf Inhalte und Kontext über Microsoft Graph zu. Es kann Antworten generieren, die in Ihren Organisationsdaten verankert sind, wie z. B. Benutzerdokumente, E-Mails, Kalender, Chats, Besprechungen und Kontakte. Microsoft 365 Copilot kombiniert diese Inhalte mit dem Arbeitskontext des Benutzers, z. B. mit der Besprechung, in der sich der Benutzer gerade befindet, mit dem E-Mailverkehr, den der Benutzer zu einem bestimmten Thema geführt hat, oder mit den Chatkonversationen, die der Benutzer letzte Woche geführt hat. Microsoft 365 Copilot verwendet diese Kombination aus Inhalt und Kontext, um genaue, relevante und kontextbezogene Antworten zu liefern.

Wichtig

Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht für das Training von Foundation LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.

Microsoft 365 Copilot zeigt nur Organisationsdaten an, für die einzelne Benutzer mindestens die Berechtigung zur Ansicht haben. Es ist wichtig, dass Sie die Berechtigungsmodelle verwenden, die in Microsoft 365-Diensten wie SharePoint verfügbar sind, um sicherzustellen, dass die richtigen Benutzer oder Gruppen den richtigen Zugriff auf die richtigen Inhalte in Ihrer Organisation haben. Dies umfasst Berechtigungen, die Sie Benutzern außerhalb Ihrer Organisation über mandantenübergreifende Lösungen für die Zusammenarbeit erteilen, z. B. freigegebene Kanäle in Microsoft Teams.

Wenn Sie Prompts in Microsoft 365 Copilot eingeben, bleiben die in Ihren Prompts enthaltenen Informationen, die abgerufenen Daten und die generierten Antworten innerhalb der Microsoft 365-Dienstgrenze, in Übereinstimmung mit unseren aktuellen Datenschutz-, Sicherheits- und Complianceverpflichtungen. Microsoft 365 Copilot verwendet Azure OpenAI Services für die Verarbeitung, nicht die öffentlich verfügbaren OpenAI Services. Azure OpenAI zwischenspeichert keine Kundeninhalte und Copilot hat die Prompts für Microsoft 365 Copilot geändert. Weitere Informationen finden Sie im Abschnitt Gespeicherte Daten über Benutzerinteraktionen mit Microsoft 365 Copilot weiter unten in diesem Artikel.

Hinweis

  • Wenn Sie Plug-Ins verwenden, um Microsoft 365 Copilot bei der Bereitstellung relevanterer Informationen zu unterstützen, überprüfen Sie die Datenschutzerklärung und die Nutzungsbedingungen des Plug-Ins, um zu ermitteln, wie es mit den Daten Ihrer Organisation umgeht. Weitere Informationen finden Sie unter Erweiterbarkeit von Microsoft 365 Copilot.
  • Wenn Sie das Webinhalts-Plug-In verwenden, analysiert Microsoft 365 Copilot die Prompt des Benutzers und identifiziert Begriffe, bei denen Web Grounding die Qualität der Antwort verbessern könnte. Basierend auf diesen Begriffen generiert Copilot eine Suchabfrage, die an den Bing-Suche-Dienst gesendet wird. Weitere Informationen finden Sie unter Daten, Datenschutz und Sicherheit für Webabfragen in Microsoft 365 Copilot und Microsoft Copilot.

Während die Missbrauchsüberwachung, zu der auch die Überprüfung von Inhalten durch Menschen gehört, in Azure OpenAI verfügbar ist, haben Microsoft 365 Copilot-Dienste dies deaktiviert. Informationen zur Inhaltsfilterung finden Sie im Abschnitt Wie blockiert Copilot schädliche Inhalte? weiter unten in diesem Artikel.

Hinweis

Wir können Kundenfeedback, das optional ist, verwenden, um Microsoft 365 Copilot zu verbessern, genau wie wir Kundenfeedback verwenden, um andere Microsoft 365-Dienste und Microsoft 365-Produktivitätsapps zu verbessern. Wir verwenden dieses Feedback nicht, um die von Microsoft 365 Copilot verwendeten Foundation LLMs zu trainieren. Kunden können Feedback über Administratorsteuerelemente verwalten. Weitere Informationen finden Sie unter Verwalten von Microsoft-Feedback für Ihre Organisation und Bereitstellen von Feedback zu Microsoft Copilot mit Microsoft 365 Apps.

Gespeicherte Daten über Benutzerinteraktionen mit Microsoft 365 Copilot

Wenn ein Benutzer mit Microsoft 365 Copilot interagiert (über Apps wie Word, PowerPoint, Excel, OneNote, Loop oder Whiteboard), speichern wir Daten über diese Interaktionen. Die gespeicherten Daten umfassen die Eingabeaufforderung des Nutzers und die Antwort von Copilot, einschließlich Zitate auf Informationen, die zur Begründung der Antwort von Copilot verwendet wurden. Wir bezeichnen die Prompt des Benutzers und die Antwort von Copilot auf diese Prompt als „Inhalt der Interaktionen“, und die Aufzeichnung dieser Interaktionen ist der Copilot-Interaktionsverlauf des Benutzers. Diese gespeicherten Daten bieten Benutzern beispielsweise den Copilot-Interaktionsverlauf in Business Chat und Besprechungen in Microsoft Teams. Diese Daten werden in Übereinstimmung mit vertraglichen Verpflichtungen mit den anderen Inhalten Ihrer Organisation in Microsoft 365 verarbeitet und gespeichert. Die Daten werden während der Speicherung verschlüsselt und nicht zum Trainieren grundlegender LLMs verwendet, einschließlich derjenigen, die von Microsoft 365 Copilot verwendet werden.

Um diese gespeicherten Daten anzuzeigen und zu verwalten, können Administratoren die Inhaltssuche oder Microsoft Purview verwenden. Administratoren können auch Microsoft Purview verwenden, um Aufbewahrungsrichtlinien für die Daten im Zusammenhang mit Chatinteraktionen mit Copilot festzulegen. Weitere Informationen finden Sie in den folgenden Artikeln:

Für Microsoft Teams-Chats mit Copilot können Administratoren auch Microsoft Teams-Export-APIs verwenden, um die gespeicherten Daten anzuzeigen.

Löschen des Verlaufs von Benutzerinteraktionen mit Microsoft 365 Copilot

Ihre Benutzer können ihren Copilot-Interaktionsverlauf löschen, der ihre Eingabeaufforderungen und die Antworten enthält, die Copilot zurückgibt, indem sie zum Portal Mein Konto wechseln. Weitere Informationen finden Sie unter Löschen des Microsoft 365 Copilot-Interaktionsverlaufs.

Microsoft 365 Copilot und die EU-Datengrenze

Microsoft 365 Copilot-Anrufe an den LLM werden an die nächstgelegenen Rechenzentren in der Region weitergeleitet, können aber in Zeiten hoher Auslastung auch in andere Regionen geleitet werden, in denen Kapazitäten verfügbar sind.

Für Benutzer aus der Europäischen Union (EU) haben wir zusätzliche Sicherheitsvorkehrungen getroffen, um die EU-Datengrenze einzuhalten. Der EU-Datenverkehr bleibt innerhalb der EU-Datengrenze, während der weltweite Datenverkehr zur LLM-Verarbeitung in die EU und andere Länder oder Regionen geschickt werden kann.

Microsoft 365 Copilot und Datenresidenz

Microsoft 365 Copilot hält die Datenresidenzverpflichtungen gemäß den Microsoft-Produktbedingungen und dem Nachtrag zum Datenschutz ein. Microsoft 365 Copilot wurde am 1. März 2024 als abgedeckte Workload in die Datenresidenzverpflichtungen in den Microsoft-Produktbedingungen aufgenommen.

Microsoft Erweiterte Datenresidenz (ADR)- und Multi-Geo Capabilities-Angebote umfassen Datenresidenzverpflichtungen für Microsoft 365 Copilot-Kunden ab dem 1. März 2024. Für EU-Kunden ist Microsoft 365 Copilot ein EU-Datenbegrenzungsdienst. Kunden außerhalb der EU können ihre Abfragen in den USA, in der EU oder in anderen Regionen verarbeiten lassen.

Erweiterbarkeit von Microsoft 365 Copilot

Während Microsoft 365 Copilot bereits die Apps und Daten innerhalb des Microsoft 365-Ökosystems verwenden kann, sind viele Organisationen immer noch auf verschiedene externe Tools und Dienste für die Arbeitsverwaltung und Zusammenarbeit angewiesen. Microsoft 365 Copilot-Erfahrungen können auf Tools und Dienste von Drittanbietern verweisen, wenn sie mithilfe von Microsoft Graph-Connectors oder Plug-Ins auf die Anforderung eines Benutzers reagieren. Daten von Graph-Connectors können in Microsoft 365 Copilot-Antworten zurückgegeben werden, wenn der Benutzer über eine Zugriffsberechtigung für diese Informationen verfügt.

Wenn Plug-Ins aktiviert sind, bestimmt Microsoft 365 Copilot, ob ein bestimmtes Plug-In verwendet werden muss, um dem Benutzer eine relevante Antwort zu geben. Wenn ein Plug-In benötigt wird, generiert Microsoft 365 Copilot eine Suchabfrage, die im Namen des Benutzers an das Plug-In gesendet wird. Die Abfrage basiert auf der Eingabeaufforderung des Benutzers, dem Copilot-Interaktionsverlauf und den Daten, auf die der Benutzer in Microsoft 365 Zugriff hat.

Im Abschnitt Integrierte Apps des Microsoft 365 Admin Centers können Administratoren die Berechtigungen und den Datenzugriff anzeigen, die für ein Plug-In erforderlich sind sowie die Nutzungsbedingungen und Datenschutzbestimmungen des Plug-Ins. Administratoren haben die volle Kontrolle darüber, welche Plug-ins in ihrer Organisation zulässig sind. Ein Benutzer kann nur auf die Plug-Ins zugreifen, die sein Administrator zulässt und die der Benutzer installiert hat oder zugewiesen ist. Microsoft 365 Copilot verwendet nur Plug-Ins, die vom Benutzer aktiviert werden.

Weitere Informationen finden Sie in den folgenden Artikeln:

Wie schützt Microsoft 365 Copilot Organisationsdaten?

Mit dem Berechtigungsmodell in Ihrem Microsoft 365- Mandanten kann sichergestellt werden, dass Daten nicht versehentlich zwischen Benutzern, Gruppen und Mandanten offengelegt werden. Microsoft 365 Copilot zeigt nur Daten an, auf die jeder Einzelne zugreifen kann, wobei die gleichen zugrunde liegenden Steuerelemente für den Datenzugriff verwendet werden, die auch in anderen Microsoft 365-Diensten verwendet werden. Der semantische Index beachtet die auf der Benutzeridentität basierende Zugriffsgrenze, so dass der Grounding-Prozess nur auf Inhalte zugreift, für die der aktuelle Benutzer eine Zugriffsberechtigung hat. Weitere Informationen finden Sie in den Datenschutzrichtlinien und in der Dokumentation der Dienste von Microsoft.

Wenn Sie über Daten verfügen, die von Microsoft Purview Information Protection verschlüsselt werden, berücksichtigt Microsoft 365 Copilot die dem Benutzer gewährten Nutzungsrechte. Diese Verschlüsselung kann durch Vertraulichkeitsbezeichnungen oder eingeschränkte Berechtigungen in Apps in Microsoft 365 mithilfe von Information Rights Management (IRM) angewendet werden. Weitere Informationen zur Verwendung von Microsoft Purview mit Microsoft 365 Copilot finden Sie unter Microsoft Purview-Datenschutz und Complianceschutz für generative KI-Apps.

Wir implementieren bereits mehrere Arten des Schutzes, um zu verhindern, dass Kunden Microsoft 365-Dienste und -Anwendungen gefährden oder nicht autorisierten Zugriff auf andere Mandanten oder das Microsoft 365 System selbst erhalten. Hier sind einige Beispiele für diese Formen des Schutzes:

  • Die logische Isolierung von Kundeninhalten innerhalb jedes Mandanten für Microsoft 365-Dienste wird durch die Microsoft Entra ID-Autorisierung und rollenbasierte Zugriffskontrolle erreicht. Weitere Informationen finden Sie unter Microsoft 365 Isolationssteuerelemente.

  • Microsoft verwendet strenge physische Sicherheit, Hintergrundprüfung und eine mehrschichtige Verschlüsselungsstrategie, um die Vertraulichkeit und Integrität von Kundeninhalten zu schützen.

  • Microsoft 365 verwendet dienstseitige Technologien, die Ruhe- und Transitinhalte von Kunden verschlüsseln, einschließlich BitLocker, dateibasierter Verschlüsselung, Transport Layer Security (TLS) und Internetprotokollsicherheit (Internet Protocol Security, IPsec). Spezifische Informationen zur Verschlüsselung in Microsoft 365 finden Sie unter Verschlüsselung in der Microsoft Cloud.

  • Ihre Kontrolle über Ihre Daten wird durch Microsofts Verpflichtung zur Einhaltung allgemein geltender Datenschutzgesetze, wie z. B. der GDPR, und von Datenschutzstandards, wie z. B. ISO/IEC 27018, dem weltweit ersten internationalen Verhaltenskodex für den Datenschutz in der Cloud, verstärkt.

  • Bei Inhalten, auf die über Microsoft 365 Copilot-Plug-Ins zugegriffen wird, kann die Verschlüsselung den programmgesteuerten Zugriff ausschließen und so den Zugriff des Plug-Ins auf die Inhalte beschränken. Weitere Informationen finden Sie unter Konfigurieren von Nutzungsrechten für Azure-Informationsschutz.

Besprechung der Anforderungen zur Einhaltung von Vorschriften

Mit der Weiterentwicklung der Regulierung im KI-Bereich wird Microsoft sich weiterhin anpassen und reagieren, um zukünftige gesetzliche Anforderungen zu erfüllen.

Microsoft 365 Copilot baut auf den aktuellen Verpflichtungen von Microsoft in Bezug auf Datensicherheit und Datenschutz im Unternehmen auf. Diese Verpflichtungen werden sich nicht ändern. Microsoft 365 Copilot ist in Microsoft 365 integriert und hält sich an alle bestehenden Datenschutz-, Sicherheits- und Compliance-Verpflichtungen für kommerzielle Microsoft 365-Kunden. Weitere Informationen finden Sie unter Microsoft Compliance.

Über die Einhaltung der Vorschriften hinaus legen wir großen Wert auf einen offenen Dialog mit unseren Kunden, Partnern und Rechtsgrundlagenbehörden, um Bedenken besser zu verstehen und auszuräumen und so ein Klima des Vertrauens und der Zusammenarbeit zu fördern. Wir sind uns darüber im Klaren, dass Datenschutz, Sicherheit und Transparenz in der KI-getriebenen Landschaft bei Microsoft nicht nur Merkmale, sondern Voraussetzungen sind.

Weitere Informationen

Microsoft 365 Copilot und Datenschutzkontrollen für verbundene Erfahrungen

Einige Datenschutzkontrollen für verbundene Erfahrungen in Microsoft 365 Apps können sich auf die Verfügbarkeit von Microsoft 365 Copilot-Features auswirken. Dies umfasst die Datenschutzkontrollen für verbundene Erfahrungen, die Ihre Inhalte analysieren, und die Datenschutzkontrollen für optionale verbundene Erfahrungen. Weitere Informationen zu diesen Datenschutzkontrollen finden Sie unter Übersicht über Datenschutzkontrollen für Microsoft 365 Apps for Enterprise.

Datenschutzkontrolle für verbundene Erfahrungen, die Ihre Inhalte analysieren

Wenn Sie verbundene Erfahrungen deaktivieren, die Ihre Inhalte auf Windows- oder Mac-Geräten in Ihrer Organisation analysieren, stehen Ihren Benutzern in den folgenden Apps keine Microsoft 365 Copilot-Features zur Verfügung:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Es gibt auch eine Datenschutzkontrolle, die alle verbundenen Erfahrungen deaktiviert, einschließlich verbundener Erfahrungen, die Ihre Inhalte analysieren. Wenn Sie diese Datenschutzkontrolle verwenden, stehen Microsoft 365 Copilot-Features für bestimmte Apps auf bestimmten Geräten nicht zur Verfügung, wie oben beschrieben.

Datenschutzkontrolle für optionale verbundene Erfahrungen

Wenn Sie optionale verbundene Erfahrungen in Ihrer Organisation deaktivieren, stehen Ihren Benutzern Microsoft 365 Copilot-Features, die optionale verbundene Erfahrungen sind, nicht zur Verfügung. Web Grounding steht Ihren Benutzern beispielsweise nicht zur Verfügung. Eine Liste der Microsoft 365 Copilot-Features, die optionale verbundene Erfahrungen sind, finden Sie unter Erfahrungen für Microsoft 365 Copilot.

Es gibt auch eine Datenschutzkontrolle, die alle verbundenen Erfahrungen deaktiviert, einschließlich optionaler verbundener Erfahrungen. Wenn Sie diese Datenschutzkontrolle verwenden, sind Microsoft 365 Copilot-Features, die optionale verbundene Erfahrungen sind, nicht verfügbar.

Über die Inhalte, die Microsoft 365 Copilot erstellt

Die Antworten, die generative KI erzeugt, sind nicht garantiert zu 100 % sachlich. Wir arbeiten zwar weiterhin an der Verbesserung der Antworten, aber die Benutzer sollten dennoch ihr Urteilsvermögen verwenden, wenn sie die Ausgabe überprüfen, bevor sie sie an andere weiterleiten. Unsere Microsoft 365 Copilot-Funktionen liefern nützliche Entwürfe und Zusammenfassungen, mit denen Sie mehr erreichen können, während Sie die Möglichkeit haben, die Antworten der KI zu überprüfen, anstatt diese Aufgaben vollständig zu automatisieren.

Wir arbeiten weiterhin an der Verbesserung von Algorithmen, um proaktiv Probleme wie Fehlinformationen und Desinformation, Inhaltsblockierung, Datensicherheit und Verhindern von Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren verantwortungsvollen KI-Grundsätzen zu reagieren.

Microsoft erhebt keinen Anspruch auf das Eigentum an der Ausgabe des Dienstes. Wir entscheiden jedoch nicht darüber, ob die Ausgabe eines Kunden urheberrechtlich geschützt oder gegenüber anderen Benutzern durchsetzbar ist. Das liegt daran, dass generative KI-Systeme ähnliche Antworten auf ähnliche Eingabeaufforderungen oder Anfragen von mehreren Kunden geben können. Folglich können mehrere Kunden Rechte an denselben oder im Wesentlichen ähnlichen Inhalten haben oder beanspruchen.

Wenn ein Dritter einen kommerziellen Kunden wegen Urheberrechtsverletzungen verklagt, weil er Microsofts Copilots oder die von ihnen erzeugte Ausgabe verwendet, verteidigen wir den Kunden und übernehmen die Kosten für nachteilige Urteile oder Vergleiche, die sich aus dem Rechtsstreit ergeben, sofern der Kunde die Schutzmechanismen und Inhaltsfilter verwendet hat, die wir in unsere Produkte eingebaut haben. Weitere Informationen finden Sie unter Microsoft kündigt neue Copilot Copyrightverpflichtung für Kunden an.

Wie blockiert Copilot schädliche Inhalte?

Der Azure OpenAI-Dienst enthält ein Inhaltsfiltersystem, das zusammen mit Kernmodellen funktioniert. Die Inhaltsfiltermodelle für die Kategorien Hass und Fairness, sexuelle Gewalt, Gewalt und Selbstverletzung wurden speziell in verschiedenen Sprachen trainiert und getestet. Dieses System funktioniert, indem sowohl die Eingabeeingabeaufforderung als auch die Antwort über Klassifizierungsmodelle ausgeführt werden, die entwickelt wurden, um die Ausgabe schädlicher Inhalte zu identifizieren und zu blockieren.

Hass- und Fairness-bezogene Schäden beziehen sich auf alle Inhalte, die abwertende oder diskriminierende Sprache aufgrund von Attributen wie Rasse, ethnischer Zugehörigkeit, Nationalität, Geschlechtsidentität und -ausdruck, sexueller Orientierung, Religion, Einwanderungsstatus, Fähigkeitsstatus, persönlichem Aussehen und Körpergröße verwenden. Bei Fairness geht es darum, sicherzustellen, dass KI-Systeme alle Personengruppen gleich behandeln, ohne zu bestehenden gesellschaftlichen Ungleichheiten beizutragen. Sexuelle Inhalte umfassen Diskussionen über menschliche Fortpflanzungsorgane, romantische Beziehungen, erotisch oder zärtlich dargestellte Handlungen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich solcher, die als Angriff oder erzwungene Handlung sexueller Gewalt, Prostitution, Pornografie und Missbrauch dargestellt werden. Gewalt beschreibt Sprache im Zusammenhang mit körperlichen Handlungen, die darauf abzielen, Schaden zuzufügen oder zu töten, einschließlich Handlungen, Waffen und verwandter Einheiten. Selbstverletzungssprache bezieht sich auf vorsätzliche Handlungen, die dazu dienen, sich selbst zu verletzen oder zu töten.

Erfahren Sie mehr über die Azure OpenAI-Inhaltsfilterung.

Bietet Copilot eine Erkennung geschützter Materialien?

Ja, Microsoft 365 Copilot bietet Erkennung von geschützten Materialien, einschließlich Text, der dem Copyright unterliegt, und Code, der Lizenzbeschränkungen unterliegt. Nicht alle diese Risikominderungen sind für alle Microsoft 365 Copilot-Szenarien relevant.

Blockiert Copilot Prompt-Injektionen (Jailbreak-Angriffe)?

Jailbreak-Angriffe sind Benutzeraufforderungen, die das generative KI-Modell dazu bringen sollen, sich so zu verhalten, wie es trainiert wurde, oder die Regeln zu brechen, die es befolgen soll. Microsoft 365 Copilot wurde entwickelt, um vor Prompt-Injection-Angriffen zu schützen. Weitere Informationen zu Jailbreak-Angriffe, und wie Sie Azure AI Content Safety verwenden, um sie zu erkennen..

Verpflichtet zu verantwortungsvoller KI

Da die KI im Begriff ist, unser Leben zu verändern, müssen wir gemeinsam neue Regeln, Normen und Praktiken für den Einsatz und die Auswirkungen dieser Technologie festlegen. Microsoft ist seit 2017 auf dem Weg der verantwortungsvollen KI, als wir unsere Prinzipien und unseren Ansatz definiert haben, um sicherzustellen, dass diese Technologie auf eine Weise eingesetzt wird, die von ethischen Prinzipien gesteuert wird, die Menschen an erster Stelle setzen.

Bei Microsoft orientieren wir uns an unseren KI-Prinzipien, unserem Standard für verantwortungsvolle KI und jahrzehntelanger Forschung zu KI, Erdung und datenschutzgerechtem maschinellem Lernen. Ein multidisziplinäres Team aus Forscher*innen, Ingenieur*innen und Richtlinienexpert*innen überprüft unsere KI-Systeme auf potenzielle Gefahren und ergreift Gegenmaßnahmen: Optimieren der Trainingsdaten, Filterung zur Begrenzung schädlicher Inhalte, Abfragen- und Ergebnisblockierung bei heiklen Themen und Anwenden von Microsoft-Technologien wie InterpretML und Fairlearn, um Datenverzerrung zu erkennen und zu korrigieren. Wir machen deutlich, wie das System Entscheidungen trifft, indem wir auf Einschränkungen hinweisen, auf Quellen verlinken und die Benutzer auffordern, Inhalte zu überprüfen, zu verifizieren und auf der Grundlage ihrer Fachkenntnisse anzupassen. Weitere Informationen finden Sie unter KI-Governance: Ein Plan für die Zukunft.

Wir wollen unsere Kunden dabei unterstützen, unsere KI-Produkte verantwortungsvoll zu nutzen, unsere Erfahrungen zu teilen und vertrauensvolle Partnerschaften aufzubauen. Für diese neuen Dienste möchten wir unseren Kunden Informationen zu den beabsichtigten Verwendungszwecken, Funktionen und Einschränkungen unseres KI-Plattformdienstes zur Verfügung stellen, damit sie über das nötige Wissen verfügen, um verantwortungsbewusste Entscheidungen für den Einsatz zu treffen. Wir geben auch Ressourcen und Vorlagen für Entwickler innerhalb von Organisationen und für unabhängige Softwareanbieter (ISVs) frei, damit diese effektive, sichere und transparente KI-Lösungen entwickeln können.