Freigeben über


Daten, Datenschutz und Sicherheit für Copilot für Microsoft 365

Microsoft Copilot für Microsoft 365 ist eine ausgereifte Verarbeitungs- und Orchestrierungs-Engine, die KI-gestützte Produktivitätsfunktionen bereitstellt, indem die folgenden Komponenten koordiniert werden:

  • Große Sprachmodelle (LLMs)
  • Inhalte in Microsoft Graph, wie z.B. E-Mails, Chats und Dokumente, für die Sie die Berechtigung haben, darauf zuzugreifen.
  • Die Microsoft 365 Produktivitäts-Apps, die Sie täglich verwenden, z. B. Word und PowerPoint.

Eine Übersicht über die Zusammenarbeit dieser drei Komponenten finden Sie unter Microsoft Copilot für Microsoft 365-Übersicht. Links zu anderen Inhalten im Zusammenhang mit Microsoft Copilot für Microsoft 365 finden Sie in Microsoft Copilot für Microsoft 365-Dokumentation.

Wichtig

  • Microsoft Copilot für Microsoft 365 erfüllt unsere bestehenden Datenschutz-, Sicherheits- und Complianceverpflichtungen gegenüber kommerziellen Microsoft 365-Kunden, einschließlich der Datenschutz-Grundverordnung (DSGVO) und der Datengrenze der Europäischen Union (EU).
  • Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht zum Trainieren von Grundlagen-LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.
  • Microsoft Copilot für Microsoft 365 arbeitet mit mehreren Schutzmaßnahmen, einschließlich, aber nicht beschränkt auf, Blockieren schädlicher Inhalte, Erkennen von geschütztem Materialund Blockieren von Eingabeaufforderungseinschleusungen (Jailbreak-Angriffe).

Die Informationen in diesem Artikel sollen Ihnen helfen, Antworten auf die folgenden Fragen zu finden:

Hinweis

Microsoft Copilot für Microsoft 365 wird sich im Laufe der Zeit mit neuen Funktionen weiterentwickeln. Um über Microsoft Copilot für Microsoft 365 auf dem Laufenden zu bleiben oder Fragen zu stellen, besuchen Sie die Microsoft 365 Copilot-Community in der Microsoft Tech Community.

Wie verwendet Microsoft Copilot für Microsoft 365 Ihre proprietären Organisationsdaten?

Microsoft Copilot für Microsoft 365 bietet Mehrwert, indem LLMs mit Ihren Organisationsdaten verbunden werden. Microsoft Copilot für Microsoft 365 greift über Microsoft Graph auf Inhalte und Kontext zu. Es kann Antworten generieren, die in Ihren Organisationsdaten verankert sind, wie z. B. Benutzerdokumente, E-Mails, Kalender, Chats, Besprechungen und Kontakte. Microsoft Copilot für Microsoft 365 kombiniert diese Inhalte mit dem Arbeitskontext des Benutzers, z. B. der Besprechung, in der sich ein Benutzer gerade befindet, dem E-Mail-Austausch des Benutzers zu einem Thema oder den Chatunterhaltungen, die der Benutzer letzte Woche geführt hat. Microsoft Copilot für Microsoft 365 verwendet diese Kombination aus Inhalt und Kontext, um genaue, relevante und kontextbezogene Antworten bereitzustellen.

Wichtig

Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht zum Trainieren von Grundlagen-LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.

Microsoft Copilot für Microsoft 365 zeigt nur Organisationsdaten an, für die einzelne Benutzer mindestens über Anzeigeberechtigungen verfügen. Es ist wichtig, dass Sie die Berechtigungsmodelle verwenden, die in Microsoft 365-Diensten wie SharePoint verfügbar sind, um sicherzustellen, dass die richtigen Benutzer oder Gruppen den richtigen Zugriff auf die richtigen Inhalte in Ihrer Organisation haben. Dies umfasst Berechtigungen, die Sie Benutzern außerhalb Ihrer Organisation über mandantenübergreifende Lösungen für die Zusammenarbeit erteilen, z. B. freigegebene Kanäle in Microsoft Teams.

Wenn Sie Eingabeaufforderungen mit Microsoft Copilot für Microsoft 365 eingeben, bleiben die in Ihren Eingabeaufforderungen enthaltenen Informationen, die von ihnen abgerufenen Daten und die generierten Antworten innerhalb der Microsoft 365-Dienstgrenze, unter Einhaltung unserer aktuellen Datenschutz-, Sicherheits- und Complianceverpflichtungen. Microsoft Copilot für Microsoft 365 verwendet Azure OpenAI-Dienste für die Verarbeitung, nicht die öffentlich verfügbaren OpenAI-Dienste. Azure OpenAI zwischenspeichert keine Kundeninhalte und Copilot hat die Eingabeaufforderungen für Copilot für Microsoft 365 geändert.

Hinweis

  • Wenn Sie Plug-Ins verwenden, um Copilot für Microsoft 365 bei der Bereitstellung relevanterer Informationen zu unterstützen, überprüfen Sie die Datenschutzerklärung und die Nutzungsbedingungen des Plug-Ins, um zu ermitteln, wie es mit den Daten Ihrer Organisation umgeht. Weitere Informationen finden Sie unter Erweiterbarkeit von Microsoft Copilot für Microsoft 365.
  • Wenn Sie das Webinhalts-Plug-In im Chat verwenden, analysiert Copilot für Microsoft 365 die Eingabeaufforderung des Benutzers und identifiziert Begriffe, bei denen Web Grounding die Qualität der Antwort verbessern könnte. Basierend auf diesen Begriffen generiert Copilot eine Suchabfrage, die an den Bing-Suche-Dienst gesendet wird. Weitere Informationen finden Sie unter Daten, Datenschutz und Sicherheit für Webabfragen in Copilot für Microsoft 365.

Die Missbrauchsüberwachung für Microsoft Copilot für Microsoft 365 erfolgt in Echtzeit, ohne dass Microsoft ständigen Zugriff auf Kundendaten erhält, sei es für menschliche oder automatisierte Überprüfungen. Während die Missbrauchsmoderation, zu der auch die Überprüfung von Inhalten durch Menschen gehört, in Azure OpenAI verfügbar ist, haben sich Microsoft Copilot für Microsoft 365-Dienste dagegen entschieden. Microsoft 365-Daten werden von Azure OpenAI nicht gesammelt oder gespeichert.

Hinweis

Wir können Kundenfeedback (das optional ist) verwenden, um Microsoft Copilot für Microsoft 365 zu verbessern, genau wie wir Kundenfeedback verwenden, um andere Microsoft 365-Dienste und Microsoft 365-Produktivitäts-Apps zu verbessern. Wir verwenden dieses Feedback nicht, um die grundlegenden LLMs zu trainieren, die von Microsoft Copilot für Microsoft 365 verwendet werden. Kunden können Feedback über Administratorsteuerelemente verwalten. Weitere Informationen finden Sie unter Verwalten von Microsoft-Feedback für Ihre Organisation und Bereitstellen von Feedback zu Microsoft Copilot für Microsoft 365.

Gespeicherte Daten zu Benutzerinteraktionen mit Microsoft Copilot für Microsoft 365

Wenn ein Benutzer mit Microsoft Copilot für Microsoft 365 interagiert (mithilfe von Apps wie Word, PowerPoint, Excel, OneNote, Loop oder Whiteboard), speichern wir Daten zu diesen Interaktionen. Die gespeicherten Daten umfassen die Eingabeaufforderung des Nutzers und die Antwort von Copilot, einschließlich Zitate auf Informationen, die zur Begründung der Antwort von Copilot verwendet wurden. Wir bezeichnen die Eingabeaufforderung des Benutzers und die Reaktion von Copilot auf diese Eingabeaufforderung als „Inhalt der Interaktionen“, und die Aufzeichnung dieser Interaktionen ist der Copilot-Interaktionsverlauf des Benutzers. Diese gespeicherten Daten stellen Benutzern beispielsweise den Copilot-Interaktionsverlauf in Microsoft Copilot mit Graph-geerdeten Chats und Besprechungen in Microsoft Teams zur Verfügung. Diese Daten werden in Übereinstimmung mit vertraglichen Verpflichtungen mit den anderen Inhalten Ihrer Organisation in Microsoft 365 verarbeitet und gespeichert. Die Daten werden während der Speicherung verschlüsselt und nicht zum Trainieren grundlegender LLMs verwendet, einschließlich derjenigen, die von Microsoft Copilot für Microsoft 365 verwendet werden.

Um diese gespeicherten Daten anzuzeigen und zu verwalten, können Administratoren die Inhaltssuche oder Microsoft Purview verwenden. Administratoren können auch Microsoft Purview verwenden, um Aufbewahrungsrichtlinien für die Daten im Zusammenhang mit Chatinteraktionen mit Copilot festzulegen. Weitere Informationen finden Sie in den folgenden Artikeln:

Für Microsoft Teams-Chats mit Copilot können Administratoren auch Microsoft Teams-Export-APIs verwenden, um die gespeicherten Daten anzuzeigen.

Löschen des Verlaufs von Benutzerinteraktionen mit Microsoft Copilot für Microsoft 365

Ihre Benutzer können ihren Copilot-Interaktionsverlauf löschen, der ihre Eingabeaufforderungen und die Antworten enthält, die Copilot zurückgibt, indem sie zum Portal Mein Konto wechseln. Weitere Informationen finden Sie unter Löschen des Microsoft Copilot-Interaktionsverlaufs.

Microsoft Copilot für Microsoft 365 und die EU-Datengrenze

Microsoft Copilot für Microsoft 365 Anrufe an das LLM werden an die nächstgelegenen Rechenzentren in der Region weitergeleitet, können aber auch in andere Regionen anrufen, in denen Kapazität in Zeiten mit hoher Auslastung verfügbar ist.

Für Benutzer aus der Europäischen Union (EU) haben wir zusätzliche Sicherheitsvorkehrungen getroffen, um die EU-Datengrenze einzuhalten. Der EU-Datenverkehr bleibt innerhalb der EU-Datengrenze, während der weltweite Datenverkehr zur LLM-Verarbeitung in die EU und andere Länder oder Regionen geschickt werden kann.

Microsoft Copilot für Microsoft 365 und Datenresidenz

Copilot für Microsoft 365 hält die Verpflichtungen zur Datenresidenz ein, wie in den Microsoft-Produktbedingungen und dem Nachtrag zum Datenschutz beschrieben. Copilot für Microsoft 365 wurde am 1. März 2024 als abgedeckte Workload in die Datenresidenzverpflichtungen in den Microsoft-Produktbedingungen aufgenommen.

Microsoft Advanced Data Residency (ADR) und Multi-Geo Capabilities-Angebote umfassen Datenresidenzverpflichtungen für Copilot für Microsoft 365-Kunden ab dem 1. März 2024. Für EU-Kunden ist Copilot für Microsoft 365 ein EU-Datenbegrenzungsdienst. Kunden außerhalb der EU können ihre Abfragen in den USA, in der EU oder in anderen Regionen verarbeiten lassen.

Erweiterbarkeit von Microsoft Copilot für Microsoft 365

Während Microsoft Copilot für Microsoft 365 bereits in der Lage ist, die Apps und Daten innerhalb des Microsoft 365 Ökosystems zu verwenden, sind viele Organisationen weiterhin von verschiedenen externen Tools und Diensten für die Arbeitsverwaltung und Zusammenarbeit abhängig. Microsoft Copilot für Microsoft 365-Erfahrungen können auf Tools und Dienste von Drittanbietern verweisen, wenn sie mithilfe von Microsoft Graph-Connectors oder Plug-Ins auf die Anforderung eines Benutzers reagieren. Daten von Graph-Connectors können in Microsoft Copilot für Microsoft 365-Antworten zurückgegeben werden, wenn der Benutzer über die Berechtigung für den Zugriff auf diese Informationen verfügt.

Wenn Plug-Ins aktiviert sind, bestimmt Microsoft Copilot für Microsoft 365, ob ein bestimmtes Plug-In verwendet werden muss, um dem Benutzer eine relevante Antwort zu geben. Wenn ein Plug-In benötigt wird, generiert Microsoft Copilot für Microsoft 365 eine Suchabfrage, die im Namen des Benutzers an das Plug-In gesendet werden soll. Die Abfrage basiert auf der Eingabeaufforderung des Benutzers, dem Copilot-Interaktionsverlauf und den Daten, auf die der Benutzer in Microsoft 365 Zugriff hat.

Im Abschnitt Integrierte Apps des Microsoft 365 Admin Centers können Administratoren die Berechtigungen und den Datenzugriff anzeigen, die für ein Plug-In erforderlich sind sowie die Nutzungsbedingungen und Datenschutzbestimmungen des Plug-Ins. Administratoren haben die volle Kontrolle darüber, welche Plug-ins in ihrer Organisation zulässig sind. Ein Benutzer kann nur auf die Plug-Ins zugreifen, die sein Administrator zulässt und die der Benutzer installiert hat oder zugewiesen ist. Microsoft Copilot für Microsoft 365 verwendet nur Plug-Ins, die vom Benutzer aktiviert werden.

Hinweis

Die Richtlinieneinstellungen, die die Verwendung optionaler verbundener Erfahrungen in Microsoft 365 Apps steuern, gelten nicht für Plug-Ins.

Weitere Informationen finden Sie in den folgenden Artikeln:

Wie schützt Microsoft Copilot für Microsoft 365 Unternehmensdaten?

Mit dem Berechtigungsmodell in Ihrem Microsoft 365- Mandanten kann sichergestellt werden, dass Daten nicht versehentlich zwischen Benutzern, Gruppen und Mandanten offengelegt werden. Microsoft Copilot für Microsoft 365 stellt nur Daten bereit, auf die jede Person mithilfe der gleichen zugrunde liegenden Steuerelemente für den Datenzugriff zugreifen kann, die in anderen Microsoft 365-Diensten verwendet werden. Der semantische Index beachtet die auf der Benutzeridentität basierende Zugriffsgrenze, so dass der Grounding-Prozess nur auf Inhalte zugreift, für die der aktuelle Benutzer eine Zugriffsberechtigung hat. Weitere Informationen finden Sie in den Datenschutzrichtlinien und in der Dokumentation der Dienste von Microsoft.

Wenn Sie über Daten verfügen, die von Microsoft Purview Information Protection verschlüsselt werden, berücksichtigt Microsoft Copilot für Microsoft 365 die dem Benutzer gewährten Nutzungsrechte. Diese Verschlüsselung kann durch Vertraulichkeitsbezeichnungen oder eingeschränkte Berechtigungen in Apps in Microsoft 365 mithilfe von Information Rights Management (IRM) angewendet werden. Weitere Informationen zur Verwendung von Microsoft Purview mit Microsoft Copilot für Microsoft 365 finden Sie unter Microsoft Purview-Datenschutz und Complianceschutz für generative KI-Apps.

Wir implementieren bereits mehrere Arten des Schutzes, um zu verhindern, dass Kunden Microsoft 365-Dienste und -Anwendungen gefährden oder nicht autorisierten Zugriff auf andere Mandanten oder das Microsoft 365 System selbst erhalten. Hier sind einige Beispiele für diese Formen des Schutzes:

  • Die logische Isolierung von Kundeninhalten innerhalb jedes Mandanten für Microsoft 365-Dienste wird durch die Microsoft Entra ID-Autorisierung und rollenbasierte Zugriffskontrolle erreicht. Weitere Informationen finden Sie unter Microsoft 365 Isolationssteuerelemente.

  • Microsoft verwendet strenge physische Sicherheit, Hintergrundprüfung und eine mehrschichtige Verschlüsselungsstrategie, um die Vertraulichkeit und Integrität von Kundeninhalten zu schützen.

  • Microsoft 365 verwendet dienstseitige Technologien, die Ruhe- und Transitinhalte von Kunden verschlüsseln, einschließlich BitLocker, dateibasierter Verschlüsselung, Transport Layer Security (TLS) und Internetprotokollsicherheit (Internet Protocol Security, IPsec). Spezifische Informationen zur Verschlüsselung in Microsoft 365 finden Sie unter Verschlüsselung in der Microsoft Cloud.

  • Ihre Kontrolle über Ihre Daten wird durch Microsofts Verpflichtung zur Einhaltung allgemein geltender Datenschutzgesetze, wie z. B. der GDPR, und von Datenschutzstandards, wie z. B. ISO/IEC 27018, dem weltweit ersten internationalen Verhaltenskodex für den Datenschutz in der Cloud, verstärkt.

  • Bei Inhalten, auf die über Microsoft Copilot für Microsoft 365 Plug-Ins zugegriffen wird, kann die Verschlüsselung den programmgesteuerten Zugriff ausschließen und so den Zugriff des Plug-Ins auf den Inhalt einschränken. Weitere Informationen finden Sie unter Konfigurieren von Nutzungsrechten für Azure-Informationsschutz.

Besprechung der Anforderungen zur Einhaltung von Vorschriften

Mit der Weiterentwicklung der Regulierung im KI-Bereich wird Microsoft sich weiterhin anpassen und reagieren, um zukünftige gesetzliche Anforderungen zu erfüllen.

Microsoft Copilot für Microsoft 365 baut auf den aktuellen Verpflichtungen von Microsoft im Hinblick auf Datensicherheit und Datenschutz im Unternehmen auf. Diese Verpflichtungen werden sich nicht ändern. Microsoft Copilot für Microsoft 365 ist in Microsoft 365 integriert und hält alle bestehenden Datenschutz-, Sicherheits- und Complianceverpflichtungen für Microsoft 365 kommerzielle Kunden ein. Weitere Informationen finden Sie unter Microsoft Compliance.

Über die Einhaltung der Vorschriften hinaus legen wir großen Wert auf einen offenen Dialog mit unseren Kunden, Partnern und Rechtsgrundlagenbehörden, um Bedenken besser zu verstehen und auszuräumen und so ein Klima des Vertrauens und der Zusammenarbeit zu fördern. Wir sind uns darüber im Klaren, dass Datenschutz, Sicherheit und Transparenz in der KI-getriebenen Landschaft bei Microsoft nicht nur Merkmale, sondern Voraussetzungen sind.

Weitere Informationen

Microsoft Copilot für Microsoft 365 und Richtlinieneinstellungen für verbundene Erfahrungen

Wenn Sie verbundene Erfahrungen deaktivieren, die Inhalte für Microsoft 365 Apps auf Windows- oder Mac-Geräten in Ihrer Organisation analysieren, stehen Ihren Benutzern in den folgenden Apps keine Microsoft Copilot für Microsoft 365-Funktionen zur Verfügung:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Ebenso sind Microsoft Copilot für Microsoft 365-Features in diesen Apps auf Windows- oder Mac-Geräten nicht verfügbar, wenn Sie die Verwendung verbundener Benutzeroberflächen für Microsoft 365 Apps deaktivieren.

Weitere Informationen zu diesen Richtlinieneinstellungen finden Sie in den folgenden Artikeln:

Über die Inhalte, die Microsoft Copilot für Microsoft 365 erstellt

Die Antworten, die generative KI erzeugt, sind nicht garantiert zu 100 % sachlich. Wir arbeiten zwar weiterhin an der Verbesserung der Antworten, aber die Benutzer sollten dennoch ihr Urteilsvermögen verwenden, wenn sie die Ausgabe überprüfen, bevor sie sie an andere weiterleiten. Unsere Microsoft Copilot für Microsoft 365-Funktionen bieten nützliche Entwürfe und Zusammenfassungen, die Ihnen helfen, mehr zu erreichen, während Sie gleichzeitig die Möglichkeit haben, die generierte KI zu überprüfen, anstatt diese Aufgaben vollständig zu automatisieren.

Wir arbeiten weiterhin an der Verbesserung von Algorithmen, um proaktiv Probleme wie Fehlinformationen und Desinformation, Inhaltsblockierung, Datensicherheit und Verhindern von Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren verantwortungsvollen KI-Grundsätzen zu reagieren.

Microsoft erhebt keinen Anspruch auf das Eigentum an der Ausgabe des Dienstes. Wir entscheiden jedoch nicht darüber, ob die Ausgabe eines Kunden urheberrechtlich geschützt oder gegenüber anderen Benutzern durchsetzbar ist. Das liegt daran, dass generative KI-Systeme ähnliche Antworten auf ähnliche Eingabeaufforderungen oder Anfragen von mehreren Kunden geben können. Folglich können mehrere Kunden Rechte an denselben oder im Wesentlichen ähnlichen Inhalten haben oder beanspruchen.

Wenn ein Dritter einen kommerziellen Kunden wegen Urheberrechtsverletzungen verklagt, weil er Microsofts Copilots oder die von ihnen erzeugte Ausgabe verwendet, verteidigen wir den Kunden und übernehmen die Kosten für nachteilige Urteile oder Vergleiche, die sich aus dem Rechtsstreit ergeben, sofern der Kunde die Schutzmechanismen und Inhaltsfilter verwendet hat, die wir in unsere Produkte eingebaut haben. Weitere Informationen finden Sie unter Microsoft kündigt neue Copilot Copyrightverpflichtung für Kunden an.

Wie blockiert Copilot schädliche Inhalte?

Der Azure OpenAI-Dienst enthält ein Inhaltsfiltersystem, das zusammen mit Kernmodellen funktioniert. Die Inhaltsfiltermodelle für die Kategorien Hass und Fairness, sexuelle Gewalt, Gewalt und Selbstverletzung wurden speziell in verschiedenen Sprachen trainiert und getestet. Dieses System funktioniert, indem sowohl die Eingabeeingabeaufforderung als auch die Antwort über Klassifizierungsmodelle ausgeführt werden, die entwickelt wurden, um die Ausgabe schädlicher Inhalte zu identifizieren und zu blockieren.

Hass- und Fairness-bezogene Schäden beziehen sich auf alle Inhalte, die abwertende oder diskriminierende Sprache aufgrund von Attributen wie Rasse, ethnischer Zugehörigkeit, Nationalität, Geschlechtsidentität und -ausdruck, sexueller Orientierung, Religion, Einwanderungsstatus, Fähigkeitsstatus, persönlichem Aussehen und Körpergröße verwenden. Bei Fairness geht es darum, sicherzustellen, dass KI-Systeme alle Personengruppen gleich behandeln, ohne zu bestehenden gesellschaftlichen Ungleichheiten beizutragen. Sexuelle Inhalte umfassen Diskussionen über menschliche Fortpflanzungsorgane, romantische Beziehungen, erotisch oder zärtlich dargestellte Handlungen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich solcher, die als Angriff oder erzwungene Handlung sexueller Gewalt, Prostitution, Pornografie und Missbrauch dargestellt werden. Gewalt beschreibt Sprache im Zusammenhang mit körperlichen Handlungen, die darauf abzielen, Schaden zuzufügen oder zu töten, einschließlich Handlungen, Waffen und verwandter Einheiten. Selbstverletzungssprache bezieht sich auf vorsätzliche Handlungen, die dazu dienen, sich selbst zu verletzen oder zu töten.

Erfahren Sie mehr über die Azure OpenAI-Inhaltsfilterung.

Bietet Copilot eine Erkennung geschützter Materialien?

Ja, Copilot für Microsoft 365 bietet Erkennung für geschützte Materialien, einschließlich Text, der dem Copyright unterliegt, und Code, der Lizenzbeschränkungen unterliegt. Nicht alle diese Risikominderungen sind für alle Copilot-Lösungen für Microsoft 365 Szenarien relevant.

Blockiert Copilot Prompt-Injektionen (Jailbreak-Angriffe)?

Jailbreak-Angriffe sind Benutzeraufforderungen, die das generative KI-Modell dazu bringen sollen, sich so zu verhalten, wie es trainiert wurde, oder die Regeln zu brechen, die es befolgen soll. Microsoft Copilot für Microsoft 365 wurde entwickelt, um vor Prompt-Injection-Angriffen zu schützen. Weitere Informationen zu Jailbreak-Angriffe, und wie Sie Azure AI Content Safety verwenden, um sie zu erkennen..

Verpflichtet zu verantwortungsvoller KI

Da die KI im Begriff ist, unser Leben zu verändern, müssen wir gemeinsam neue Regeln, Normen und Praktiken für den Einsatz und die Auswirkungen dieser Technologie festlegen. Microsoft ist seit 2017 auf dem Weg der verantwortungsvollen KI, als wir unsere Prinzipien und unseren Ansatz definiert haben, um sicherzustellen, dass diese Technologie auf eine Weise eingesetzt wird, die von ethischen Prinzipien gesteuert wird, die Menschen an erster Stelle setzen.

Bei Microsoft orientieren wir uns an unseren KI-Prinzipien, unserem Standard für verantwortungsvolle KI und jahrzehntelanger Forschung zu KI, Erdung und datenschutzgerechtem maschinellem Lernen. Ein multidisziplinäres Team aus Forscher*innen, Ingenieur*innen und Richtlinienexpert*innen überprüft unsere KI-Systeme auf potenzielle Gefahren und ergreift Gegenmaßnahmen: Optimieren der Trainingsdaten, Filterung zur Begrenzung schädlicher Inhalte, Abfragen- und Ergebnisblockierung bei heiklen Themen und Anwenden von Microsoft-Technologien wie InterpretML und Fairlearn, um Datenverzerrung zu erkennen und zu korrigieren. Wir machen deutlich, wie das System Entscheidungen trifft, indem wir auf Einschränkungen hinweisen, auf Quellen verlinken und die Benutzer auffordern, Inhalte zu überprüfen, zu verifizieren und auf der Grundlage ihrer Fachkenntnisse anzupassen. Weitere Informationen finden Sie unter KI-Governance: Ein Plan für die Zukunft.

Wir wollen unsere Kunden dabei unterstützen, unsere KI-Produkte verantwortungsvoll zu nutzen, unsere Erfahrungen zu teilen und vertrauensvolle Partnerschaften aufzubauen. Für diese neuen Dienste möchten wir unseren Kunden Informationen zu den beabsichtigten Verwendungszwecken, Funktionen und Einschränkungen unseres KI-Plattformdienstes zur Verfügung stellen, damit sie über das nötige Wissen verfügen, um verantwortungsbewusste Entscheidungen für den Einsatz zu treffen. Wir geben auch Ressourcen und Vorlagen für Entwickler innerhalb von Organisationen und für unabhängige Softwareanbieter (ISVs) frei, damit diese effektive, sichere und transparente KI-Lösungen entwickeln können.