Daten, Datenschutz und Sicherheit für Copilot für Microsoft 365

Microsoft Copilot für Microsoft 365 ist eine ausgereifte Verarbeitungs- und Orchestrierungs-Engine, die KI-gestützte Produktivitätsfunktionen bereitstellt, indem die folgenden Komponenten koordiniert werden:

  • Große Sprachmodelle (LLMs)
  • Inhalte in Microsoft Graph, wie z.B. E-Mails, Chats und Dokumente, für die Sie die Berechtigung haben, darauf zuzugreifen.
  • Die Microsoft 365-Apps, die Sie täglich nutzen, wie Word und PowerPoint.

Eine Übersicht über die Zusammenarbeit dieser drei Komponenten finden Sie unter Microsoft Copilot für Microsoft 365-Übersicht. Links zu anderen Inhalten im Zusammenhang mit Microsoft Copilot für Microsoft 365 finden Sie in Microsoft Copilot für Microsoft 365-Dokumentation.

Wichtig

  • Microsoft Copilot für Microsoft 365 erfüllt unsere bestehenden Datenschutz-, Sicherheits- und Complianceverpflichtungen gegenüber kommerziellen Microsoft 365-Kunden, einschließlich der Datenschutz-Grundverordnung (DSGVO) und der Datengrenze der Europäischen Union (EU).
  • Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht zum Trainieren von Grundlagen-LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.

Die Informationen in diesem Artikel sollen Ihnen helfen, Antworten auf die folgenden Fragen zu finden:

Hinweis

Microsoft Copilot für Microsoft 365 wird sich im Laufe der Zeit mit neuen Funktionen weiterentwickeln. Um über Microsoft Copilot für Microsoft 365 auf dem Laufenden zu bleiben oder Fragen zu stellen, besuchen Sie die Microsoft 365 Copilot-Community in der Microsoft Tech Community.

Wie verwendet Microsoft Copilot für Microsoft 365 Ihre proprietären Organisationsdaten?

Microsoft Copilot für Microsoft 365 bietet Mehrwert, indem LLMs mit Ihren Organisationsdaten verbunden werden. Microsoft Copilot für Microsoft 365 greift über Microsoft Graph auf Inhalte und Kontext zu. Es kann Antworten generieren, die in Ihren Organisationsdaten verankert sind, wie z. B. Benutzerdokumente, E-Mails, Kalender, Chats, Besprechungen und Kontakte. Microsoft Copilot für Microsoft 365 kombiniert diese Inhalte mit dem Arbeitskontext des Benutzers, z. B. der Besprechung, in der sich ein Benutzer gerade befindet, dem E-Mail-Austausch des Benutzers zu einem Thema oder den Chatunterhaltungen, die der Benutzer letzte Woche geführt hat. Microsoft Copilot für Microsoft 365 verwendet diese Kombination aus Inhalt und Kontext, um genaue, relevante und kontextbezogene Antworten bereitzustellen.

Wichtig

Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht zum Trainieren von Grundlagen-LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.

Microsoft Copilot für Microsoft 365 zeigt nur Organisationsdaten an, für die einzelne Benutzer mindestens über Anzeigeberechtigungen verfügen. Es ist wichtig, dass Sie die Berechtigungsmodelle verwenden, die in Microsoft 365-Diensten wie SharePoint verfügbar sind, um sicherzustellen, dass die richtigen Benutzer oder Gruppen den richtigen Zugriff auf die richtigen Inhalte in Ihrer Organisation haben. Dies umfasst Berechtigungen, die Sie Benutzern außerhalb Ihrer Organisation über mandantenübergreifende Lösungen für die Zusammenarbeit erteilen, z. B. freigegebene Kanäle in Microsoft Teams.

Wenn Sie Eingabeaufforderungen mit Microsoft Copilot für Microsoft 365 eingeben, bleiben die in Ihren Eingabeaufforderungen enthaltenen Informationen, die von ihnen abgerufenen Daten und die generierten Antworten innerhalb der Microsoft 365-Dienstgrenze, unter Einhaltung unserer aktuellen Datenschutz-, Sicherheits- und Complianceverpflichtungen. Microsoft Copilot für Microsoft 365 verwendet Azure OpenAI-Dienste für die Verarbeitung, nicht die öffentlich verfügbaren OpenAI-Dienste.

Hinweis

Wenn Sie Microsoft Copilot für Microsoft 365 verwenden, verlassen die Daten Ihrer Organisation unter den folgenden Umständen möglicherweise die Microsoft 365-Dienstgrenze:

  • Wenn Sie Plug-Ins verwenden, um Microsoft Copilot für Microsoft 365 relevantere Informationen bereitzustellen. Überprüfen Sie die Datenschutzerklärung und die Nutzungsbedingungen des Plug-Ins, um zu bestimmen, wie es mit den Daten Ihrer Organisation umgeht. Weitere Informationen finden Sie unter Erweiterbarkeit von Microsoft Copilot für Microsoft 365.
  • Wenn Sie das Webinhalts-Plug-In verwenden, um Chatantworten zu verbessern, generiert Copilot für Microsoft 365 eine Suchabfrage, die an Bing gesendet wird, um die neuesten Informationen aus dem Web zu erhalten. Weitere Informationen unter Microsoft Copilot für Microsoft 365 und dem Webinhalts-Plug-In.

Die Missbrauchsüberwachung für Microsoft Copilot für Microsoft 365 erfolgt in Echtzeit, ohne dass Microsoft ständigen Zugriff auf Kundendaten erhält, sei es für menschliche oder automatisierte Überprüfungen. Während die Missbrauchsmoderation, zu der auch die Überprüfung von Inhalten durch Menschen gehört, in Azure OpenAI verfügbar ist, haben sich Microsoft Copilot für Microsoft 365-Dienste dagegen entschieden. Microsoft 365-Daten werden von Azure OpenAI nicht gesammelt oder gespeichert.

Hinweis

Wir können kundenspezifisches Feedback verwenden, das optional ist, um Microsoft Copilot für Microsoft 365 zu verbessern, genau wie wir Kundenfeedback verwenden, um andere Microsoft 365-Dienste und Microsoft 365 Apps zu verbessern. Wir verwenden dieses Feedback nicht, um die grundlegenden LLMs zu trainieren, die von Microsoft Copilot für Microsoft 365 verwendet werden. Kunden können Feedback über Administratorsteuerelemente verwalten. Weitere Informationen finden Sie unter Verwalten von Microsoft-Feedback für Ihre Organisation und Bereitstellen von Feedback zu Microsoft Copilot für Microsoft 365.

Gespeicherte Daten zu Benutzerinteraktionen mit Microsoft Copilot für Microsoft 365

Wenn ein Benutzer mit Microsoft Copilot für Microsoft 365 Apps (z. B. Word, PowerPoint, Excel, OneNote, Loop oder Whiteboard) interagiert, speichern wir Daten zu diesen Interaktionen. Die gespeicherten Daten umfassen die Eingabeaufforderung des Nutzers und die Antwort von Copilot, einschließlich Zitate auf Informationen, die zur Begründung der Antwort von Copilot verwendet wurden. Wir bezeichnen die Eingabeaufforderung des Benutzers und die Reaktion von Copilot auf diese Eingabeaufforderung als „Inhalt der Interaktionen“, und die Aufzeichnung dieser Interaktionen ist der Copilot-Interaktionsverlauf des Benutzers. Diese gespeicherten Daten stellen Benutzern beispielsweise den Copilot-Interaktionsverlauf in Microsoft Copilot mit Graph-geerdeten Chats und Besprechungen in Microsoft Teams zur Verfügung. Diese Daten werden in Übereinstimmung mit vertraglichen Verpflichtungen mit den anderen Inhalten Ihrer Organisation in Microsoft 365 verarbeitet und gespeichert. Die Daten werden während der Speicherung verschlüsselt und nicht zum Trainieren grundlegender LLMs verwendet, einschließlich derjenigen, die von Microsoft Copilot für Microsoft 365 verwendet werden.

Um diese gespeicherten Daten anzuzeigen und zu verwalten, können Administratoren die Inhaltssuche oder Microsoft Purview verwenden. Administratoren können auch Microsoft Purview verwenden, um Aufbewahrungsrichtlinien für die Daten im Zusammenhang mit Chatinteraktionen mit Copilot festzulegen. Weitere Informationen finden Sie in den folgenden Artikeln:

Für Microsoft Teams-Chats mit Copilot können Administratoren auch Microsoft Teams-Export-APIs verwenden, um die gespeicherten Daten anzuzeigen.

Löschen des Verlaufs von Benutzerinteraktionen mit Microsoft Copilot für Microsoft 365

Ihre Benutzer können ihren Copilot-Interaktionsverlauf löschen, der ihre Eingabeaufforderungen und die Antworten enthält, die Copilot zurückgibt, indem sie zum Portal Mein Konto wechseln. Weitere Informationen finden Sie unter Löschen des Microsoft Copilot-Interaktionsverlaufs.

Microsoft Copilot für Microsoft 365 und die EU-Datengrenze

Microsoft Copilot für Microsoft 365 Anrufe an das LLM werden an die nächstgelegenen Rechenzentren in der Region weitergeleitet, können aber auch in andere Regionen anrufen, in denen Kapazität in Zeiten mit hoher Auslastung verfügbar ist.

Für Benutzer aus der Europäischen Union (EU) haben wir zusätzliche Sicherheitsvorkehrungen getroffen, um die EU-Datengrenze einzuhalten. Der EU-Datenverkehr bleibt innerhalb der EU-Datengrenze, während der weltweite Datenverkehr zur LLM-Verarbeitung in die EU und andere Länder oder Regionen geschickt werden kann.

Microsoft Copilot für Microsoft 365 und Datenresidenz

Copilot für Microsoft 365 hält die Verpflichtungen zur Datenresidenz ein, wie in den Microsoft-Produktbedingungen und dem Nachtrag zum Datenschutz beschrieben. Copilot für Microsoft 365 wurde am 1. März 2024 als abgedeckte Workload in die Datenresidenzverpflichtungen in den Microsoft-Produktbedingungen aufgenommen.

Microsoft Advanced Data Residency (ADR) und Multi-Geo Capabilities-Angebote umfassen Datenresidenzverpflichtungen für Copilot für Microsoft 365-Kunden ab dem 1. März 2024. Für EU-Kunden ist Copilot für Microsoft 365 ein EU-Datenbegrenzungsdienst. Kunden außerhalb der EU können ihre Abfragen in den USA, in der EU oder in anderen Regionen verarbeiten lassen.

Microsoft Copilot für Microsoft 365 und das Webinhalts-Plug-In

Copilot für Microsoft 365 hat die Möglichkeit, Chatantworten mit den neuesten Informationen aus dem Web zu verbessern. Wenn das Webinhalts-Plug-In aktiviert ist, kann Copilot Informationen aus dem Bing-Suchindex abrufen, wenn Copilot feststellt, dass Informationen aus dem Web zu einer besseren, fundierteren Antwort beitragen.

Admin-Steuerelemente und die Umschaltfläche auf Benutzerebene stehen zur Verfügung, um zu verwalten, ob das Webinhalts-Plug-In in Ihrer Umgebung aktiviert ist.

Funktionsweise des Webinhalts-Plug-Ins

Wenn das Webinhalts-Plug-In im Chat aktiviert ist, analysiert Copilot für Microsoft 365 die Eingabeaufforderung des Benutzers und identifiziert Begriffe, bei denen Web Grounding die Qualität der Antwort verbessern könnte. Basierend auf diesen Begriffen generiert Copilot eine Suchabfrage, die an die Bing-Suche-API gesendet wird und um weitere Informationen bittet. Diese Suchabfrage unterscheidet sich von der Eingabeaufforderung des Benutzers. Sie besteht in der Regel aus einigen Wörtern, die durch die Eingabeaufforderung des Benutzers und/oder Microsoft 365-Daten informiert werden. Es umfasst nicht automatisch alle mit der Eingabeaufforderung verknüpften Microsoft 365-Dokumente.

Die folgende Tabelle enthält ein Beispiel für die Eingabeaufforderung eines Benutzers, die gesendeten Suchabfragen und die Antwort von Copilot.

Entität Text
Eingabeaufforderung (wie vom Benutzer geschrieben) Wir erwägen eine mögliche Übernahme von Fabrikam. Helfen Sie mir, einen zusammenfassenden Bericht mit 200 Wörtern mit öffentlich zugänglichen Finanzinformationen über das Unternehmen zusammenzustellen, einschließlich seiner Geschäftsstrategie.
Suchabfragen (von Copilot generiert und an die Bing-Such-API gesendet) Fabrikam-Strategie
Fabrikam-Finanzen
Antwort (von Copilot generiert) Fabrikam ist ein CPG-Startup, das gesündere Lebensmittelalternativen anbietet, aber den gleichen vertrauten Geschmack wie traditionelle Marken hat. Das Unternehmen sammelte 2019 eine Seed-Finanzierung in Höhe von 4,5 Millionen US-Dollar ein und sammelte 2022 in einer Serie-B-Finanzierungsrunde 31,5 Millionen US-Dollar ein. Bis Januar 2023 hat Fabrikam insgesamt 83,4 Millionen US-Dollar an Finanzmitteln aufgebracht und ist auf dem besten Weg, seinen Umsatz in diesem Jahr mehr als zu verdoppeln.

Als die Pandemie ausbrach, stand Fabrikam vor der Herausforderung, von stationären Geschäften auf Online-Verkäufe umzustellen, und hier kam die Influencer-Marketingstrategie ins Spiel. Anstatt sich auf Veranstaltungen und Werbeaktionen im Geschäft zu verlassen, wandte sich Fabrikam sozialen Medien und Influencer-Partnerschaften zu, um die Markenbekanntheit zu steigern und ein breiteres Publikum zu erreichen. Das Unternehmen ging Innovationen auch aus einem echten Blickwinkel an, indem es herkömmliche Konsumtreiber mit besseren Angeboten in Einklang brachte und eine ganzheitliche, robuste Vertriebsstrategie verfolgte.

Zusammenfassend lässt sich sagen, dass Fabrikam über 55 Millionen US-Dollar an Finanzmitteln aufgebracht hat und über eine starke Influencer-Marketingstrategie verfügt, die ihnen geholfen hat, während der Pandemie auf Onlineverkäufe umzusteigen.

In diesem Beispiel werden nur die beiden Suchabfragen an die Bing-Suche-API gesendet. Nachdem der Benutzer seine Eingabeaufforderung eingegeben hat, zeigt die Chaterfahrung alle Abfragen an, die generiert und an Bing gesendet werden. Die Eingabeaufforderungen des Benutzers und die Antworten von Copilot werden in Microsoft 365 gespeichert. Suchabfragen, die von Copilot für Microsoft 365 an die Bing-Suche-API gesendet werden, werden von der Benutzer-ID und der Mandanten-ID getrennt.

Die Bing-Suche-API wird von Bing.com bereitgestellt, die separat von Microsoft 365 ausgeführt wird und unterschiedliche Methoden für die Datenverarbeitung aufweist. Die Verwendung von Bing ist durch den Microsoft-Servicevertrag zwischen jedem Benutzer und Microsoft sowie durch die Microsoft-Datenschutzerklärung abgedeckt. Der Datenschutznachtrag für Microsoft-Produkte und -Dienste (DPA) gilt nicht für die Verwendung des Webinhalts-Plug-Ins oder der Bing-Suche-API.

Verfügbare Steuerelemente zum Verwalten der Verwendung von Webinhalten

Administratoren können den Zugriff auf Webinhalte in Copilot für Microsoft 365 blockieren. Weitere Informationen finden Sie unter Verwalten des Zugriffs auf Webinhalte in Microsoft Copilot für Microsoft 365-Antworten. Auch wenn der Administrator dies erlaubt, haben Benutzer immer noch die Möglichkeit, das Web-Plug-In zu verwenden oder nicht. Weitere Informationen finden Sie unter Verwenden zusätzlicher Datenquellen mit Microsoft 365 Copilot.

Hinweis

Die Richtlinieneinstellungen, die die Verwendung optionaler verbundener Erfahrungen in Microsoft 365 Apps steuern, gelten nicht für Microsoft Copilot für Microsoft 365 und Webinhalte.

Erweiterbarkeit von Microsoft Copilot für Microsoft 365

Während Microsoft Copilot für Microsoft 365 bereits in der Lage ist, die Apps und Daten innerhalb des Microsoft 365 Ökosystems zu verwenden, sind viele Organisationen weiterhin von verschiedenen externen Tools und Diensten für die Arbeitsverwaltung und Zusammenarbeit abhängig. Microsoft Copilot für Microsoft 365-Erfahrungen können auf Tools und Dienste von Drittanbietern verweisen, wenn sie mithilfe von Microsoft Graph-Connectors oder Plug-Ins auf die Anforderung eines Benutzers reagieren. Daten von Graph-Connectors können in Microsoft Copilot für Microsoft 365-Antworten zurückgegeben werden, wenn der Benutzer über die Berechtigung für den Zugriff auf diese Informationen verfügt.

Wenn Plug-Ins aktiviert sind, bestimmt Microsoft Copilot für Microsoft 365, ob ein bestimmtes Plug-In verwendet werden muss, um dem Benutzer eine relevante Antwort zu geben. Wenn ein Plug-In benötigt wird, generiert Microsoft Copilot für Microsoft 365 eine Suchabfrage, die im Namen des Benutzers an das Plug-In gesendet werden soll. Die Abfrage basiert auf der Eingabeaufforderung des Benutzers, dem Copilot-Interaktionsverlauf und den Daten, auf die der Benutzer in Microsoft 365 Zugriff hat.

Im Abschnitt Integrierte Apps des Microsoft 365 Admin Centers können Administratoren die Berechtigungen und den Datenzugriff anzeigen, die für ein Plug-In erforderlich sind sowie die Nutzungsbedingungen und Datenschutzbestimmungen des Plug-Ins. Administratoren haben die volle Kontrolle darüber, welche Plug-ins in ihrer Organisation zulässig sind. Ein Benutzer kann nur auf die Plug-Ins zugreifen, die sein Administrator zulässt und die der Benutzer installiert hat oder zugewiesen ist. Microsoft Copilot für Microsoft 365 verwendet nur Plug-Ins, die vom Benutzer aktiviert werden.

Hinweis

Die Richtlinieneinstellungen, die die Verwendung optionaler verbundener Erfahrungen in Microsoft 365 Apps steuern, gelten nicht für Plug-Ins.

Weitere Informationen finden Sie in den folgenden Artikeln:

Wie schützt Microsoft Copilot für Microsoft 365 Unternehmensdaten?

Mit dem Berechtigungsmodell in Ihrem Microsoft 365- Mandanten kann sichergestellt werden, dass Daten nicht versehentlich zwischen Benutzern, Gruppen und Mandanten offengelegt werden. Microsoft Copilot für Microsoft 365 stellt nur Daten bereit, auf die jede Person mithilfe der gleichen zugrunde liegenden Steuerelemente für den Datenzugriff zugreifen kann, die in anderen Microsoft 365-Diensten verwendet werden. Der semantische Index beachtet die auf der Benutzeridentität basierende Zugriffsgrenze, so dass der Grounding-Prozess nur auf Inhalte zugreift, für die der aktuelle Benutzer eine Zugriffsberechtigung hat. Weitere Informationen finden Sie in den Datenschutzrichtlinien und in der Dokumentation der Dienste von Microsoft.

Wenn Sie über Daten verfügen, die von Microsoft Purview Information Protection verschlüsselt werden, berücksichtigt Microsoft Copilot für Microsoft 365 die dem Benutzer gewährten Nutzungsrechte. Diese Verschlüsselung kann durchVertraulichkeitsbezeichnungen oder durch eingeschränkte Berechtigungen in Microsoft 365-Apps unter Verwendung von Information Rights Management (IRM) angewendet werden. Weitere Informationen zur Verwendung von Microsoft Purview mit Microsoft Copilot für Microsoft 365 finden Sie unter Microsoft Purview-Datenschutz und Complianceschutz für Microsoft Copilot.

Wir implementieren bereits mehrere Arten des Schutzes, um zu verhindern, dass Kunden Microsoft 365-Dienste und -Anwendungen gefährden oder nicht autorisierten Zugriff auf andere Mandanten oder das Microsoft 365 System selbst erhalten. Hier sind einige Beispiele für diese Formen des Schutzes:

  • Die logische Isolierung von Kundeninhalten innerhalb jedes Mandanten für Microsoft 365-Dienste wird durch die Microsoft Entra ID-Autorisierung und rollenbasierte Zugriffskontrolle erreicht. Weitere Informationen finden Sie unter Microsoft 365 Isolationssteuerelemente.

  • Microsoft verwendet strenge physische Sicherheit, Hintergrundprüfung und eine mehrschichtige Verschlüsselungsstrategie, um die Vertraulichkeit und Integrität von Kundeninhalten zu schützen.

  • Microsoft 365 verwendet dienstseitige Technologien, die Ruhe- und Transitinhalte von Kunden verschlüsseln, einschließlich BitLocker, dateibasierter Verschlüsselung, Transport Layer Security (TLS) und Internetprotokollsicherheit (Internet Protocol Security, IPsec). Spezifische Informationen zur Verschlüsselung in Microsoft 365 finden Sie unter Verschlüsselung in der Microsoft Cloud.

  • Ihre Kontrolle über Ihre Daten wird durch Microsofts Verpflichtung zur Einhaltung allgemein geltender Datenschutzgesetze, wie z. B. der GDPR, und von Datenschutzstandards, wie z. B. ISO/IEC 27018, dem weltweit ersten internationalen Verhaltenskodex für den Datenschutz in der Cloud, verstärkt.

  • Bei Inhalten, auf die über Microsoft Copilot für Microsoft 365 Plug-Ins zugegriffen wird, kann die Verschlüsselung den programmgesteuerten Zugriff ausschließen und so den Zugriff des Plug-Ins auf den Inhalt einschränken. Weitere Informationen finden Sie unter Konfigurieren von Nutzungsrechten für Azure-Informationsschutz.

Besprechung der Anforderungen zur Einhaltung von Vorschriften

Mit der Weiterentwicklung der Regulierung im KI-Bereich wird Microsoft sich weiterhin anpassen und reagieren, um zukünftige gesetzliche Anforderungen zu erfüllen.

Microsoft Copilot für Microsoft 365 baut auf den aktuellen Verpflichtungen von Microsoft im Hinblick auf Datensicherheit und Datenschutz im Unternehmen auf. Diese Verpflichtungen werden sich nicht ändern. Microsoft Copilot für Microsoft 365 ist in Microsoft 365 integriert und hält alle bestehenden Datenschutz-, Sicherheits- und Complianceverpflichtungen für Microsoft 365 kommerzielle Kunden ein. Weitere Informationen finden Sie unter Microsoft Compliance.

Über die Einhaltung der Vorschriften hinaus legen wir großen Wert auf einen offenen Dialog mit unseren Kunden, Partnern und Rechtsgrundlagenbehörden, um Bedenken besser zu verstehen und auszuräumen und so ein Klima des Vertrauens und der Zusammenarbeit zu fördern. Wir sind uns darüber im Klaren, dass Datenschutz, Sicherheit und Transparenz in der KI-getriebenen Landschaft bei Microsoft nicht nur Merkmale, sondern Voraussetzungen sind.

Weitere Informationen

Microsoft Copilot für Microsoft 365 und Richtlinieneinstellungen für verbundene Erfahrungen

Wenn Sie verbundene Erfahrungen deaktivieren, die Inhalte für Microsoft 365 Apps auf Windows- oder Mac-Geräten in Ihrer Organisation analysieren, stehen Ihren Benutzern in den folgenden Apps keine Microsoft Copilot für Microsoft 365-Funktionen zur Verfügung:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Ebenso sind Microsoft Copilot für Microsoft 365-Features in diesen Apps auf Windows- oder Mac-Geräten nicht verfügbar, wenn Sie die Verwendung verbundener Benutzeroberflächen für Microsoft 365 Apps deaktivieren.

Weitere Informationen zu diesen Richtlinieneinstellungen finden Sie in den folgenden Artikeln:

Über die Inhalte, die Microsoft Copilot für Microsoft 365 erstellt

Die Antworten, die generative KI erzeugt, sind nicht garantiert zu 100 % sachlich. Wir arbeiten zwar weiterhin an der Verbesserung der Antworten, aber die Benutzer sollten dennoch ihr Urteilsvermögen verwenden, wenn sie die Ausgabe überprüfen, bevor sie sie an andere weiterleiten. Unsere Microsoft Copilot für Microsoft 365-Funktionen bieten nützliche Entwürfe und Zusammenfassungen, die Ihnen helfen, mehr zu erreichen, während Sie gleichzeitig die Möglichkeit haben, die generierte KI zu überprüfen, anstatt diese Aufgaben vollständig zu automatisieren.

Wir arbeiten weiterhin an der Verbesserung von Algorithmen, um proaktiv Probleme wie Fehlinformationen und Desinformation, Inhaltsblockierung, Datensicherheit und Verhindern von Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren verantwortungsvollen KI-Grundsätzen zu reagieren.

Microsoft erhebt keinen Anspruch auf das Eigentum an der Ausgabe des Dienstes. Wir entscheiden jedoch nicht darüber, ob die Ausgabe eines Kunden urheberrechtlich geschützt oder gegenüber anderen Benutzern durchsetzbar ist. Das liegt daran, dass generative KI-Systeme ähnliche Antworten auf ähnliche Eingabeaufforderungen oder Anfragen von mehreren Kunden geben können. Folglich können mehrere Kunden Rechte an denselben oder im Wesentlichen ähnlichen Inhalten haben oder beanspruchen.

Wenn ein Dritter einen kommerziellen Kunden wegen Urheberrechtsverletzungen verklagt, weil er Microsofts Copilots oder die von ihnen erzeugte Ausgabe verwendet, verteidigen wir den Kunden und übernehmen die Kosten für nachteilige Urteile oder Vergleiche, die sich aus dem Rechtsstreit ergeben, sofern der Kunde die Schutzmechanismen und Inhaltsfilter verwendet hat, die wir in unsere Produkte eingebaut haben. Weitere Informationen finden Sie unter Microsoft kündigt neue Copilot Copyrightverpflichtung für Kunden an.

Verpflichtet zu verantwortungsvoller KI

Da die KI im Begriff ist, unser Leben zu verändern, müssen wir gemeinsam neue Regeln, Normen und Praktiken für den Einsatz und die Auswirkungen dieser Technologie festlegen. Microsoft ist seit 2017 auf dem Weg der verantwortungsvollen KI, als wir unsere Prinzipien und unseren Ansatz definiert haben, um sicherzustellen, dass diese Technologie auf eine Weise eingesetzt wird, die von ethischen Prinzipien gesteuert wird, die Menschen an erster Stelle setzen.

Bei Microsoft orientieren wir uns an unseren KI-Prinzipien, unserem Standard für verantwortungsvolle KI und jahrzehntelanger Forschung zu KI, Erdung und datenschutzgerechtem maschinellem Lernen. Ein multidisziplinäres Team aus Forschern, Ingenieuren und Richtlinienexperten überprüft unsere KI-Systeme auf potenzielle Schäden und Minderungen: Optimieren der Trainingsdaten, Filterung zur Begrenzung schädlicher Inhalte, Abfragen und Ergebnisblockierung vertraulicher Themen und Anwenden von Microsoft-Technologien wie InterpretML und Fairlearn, um Datenverzerrung zu erkennen und zu korrigieren. Wir machen deutlich, wie das System Entscheidungen trifft, indem wir auf Einschränkungen hinweisen, auf Quellen verlinken und die Benutzer auffordern, Inhalte zu überprüfen, zu verifizieren und auf der Grundlage ihrer Fachkenntnisse anzupassen. Weitere Informationen finden Sie unter KI-Governance: Ein Plan für die Zukunft.

Wir wollen unsere Kunden dabei unterstützen, unsere KI-Produkte verantwortungsvoll zu nutzen, unsere Erfahrungen zu teilen und vertrauensvolle Partnerschaften aufzubauen. Für diese neuen Dienste möchten wir unseren Kunden Informationen zu den beabsichtigten Verwendungszwecken, Funktionen und Einschränkungen unseres KI-Plattformdienstes zur Verfügung stellen, damit sie über das nötige Wissen verfügen, um verantwortungsbewusste Entscheidungen für den Einsatz zu treffen. Wir geben auch Ressourcen und Vorlagen für Entwickler innerhalb von Organisationen und für unabhängige Softwareanbieter (ISVs) frei, damit diese effektive, sichere und transparente KI-Lösungen entwickeln können.