Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Microsoft ist bestrebt, Kunden in die Lage zu versetzen, KI-Lösungen (Künstliche Intelligenz) mithilfe seiner Clouddienste sicher einzuführen und zu erstellen. Da sich KI in einer sich schnell entwickelnden und weitgehend nicht regulierten Landschaft weiterentwickelt, verfolgt Microsoft einen durchdachten und proaktiven Ansatz, um sicherzustellen, dass seine KI-Technologien sicher, sicher und vertrauenswürdig sind. Der Ansatz von Microsoft für KI basiert auf umfassenden Angeboten, starken Governanceframeworks und klar definierten Prinzipien der verantwortungsbewussten KI (RAI), die alle durch ein Modell der gemeinsamen Verantwortung unterstützt werden. Auf dieser Grundlage ermöglicht Microsoft Kunden das Entwerfen und Bereitstellen von KI-Systemen, die den etablierten Sicherheits-, Datenschutz- und ethischen Standards entsprechen, um Innovationen zu fördern und gleichzeitig vertrauen zu können.
Welche Produktangebote von Microsoft nutzen KI?
Microsoft verfügt über eine Vielzahl von KI-Dienstangeboten, die Sie allgemein in zwei Gruppen unterteilen können: einsatzbereite generative KI-Systeme wie Copilot und KI-Entwicklungsplattformen, auf denen Sie Ihre eigenen generativen KI-Systeme erstellen können.
Azure KI dient als gemeinsame Entwicklungsplattform und bietet eine Grundlage für verantwortungsvolle Innovationen mit Datenschutz, Sicherheit und Compliance auf Unternehmensniveau.
Weitere Informationen zu den KI-Angeboten von Microsoft finden Sie in der folgenden Produktdokumentation:
Wie gilt das Modell der gemeinsamen Verantwortung für KI?
Wie bei anderen Cloudangeboten ist die Entschärfung von KI-Risiken eine gemeinsame Verantwortung von Microsoft und Kunden. Abhängig von den KI-Funktionen, die Sie in Ihrem organization implementieren, verschieben sich die Zuständigkeiten zwischen Microsoft und Ihnen. Dieses Modell variiert je nach Art der KI-Bereitstellung – unabhängig davon, ob es sich um eine vollständig verwaltete SaaS-Lösung wie Microsoft 365 Copilot oder eine benutzerdefinierte Modellbereitstellung mit Azure OpenAI handelt.
Das folgende Diagramm veranschaulicht die Zuständigkeitsbereiche zwischen Microsoft und Kunden entsprechend der Art der Bereitstellung.
Weitere Informationen finden Sie unter Modell der gemeinsamen Verantwortung für künstliche Intelligenz (KI)
Microsoft-Zuständigkeiten
Microsoft ist verantwortlich für die Bereitstellung sicherer, konformer und vertrauenswürdiger KI-Infrastruktur und -Dienste auf seinen Cloudplattformen, einschließlich IaaS, PaaS und SaaS-Modellen. Microsoft bettet Prinzipien der verantwortungsvollen KI in den Entwicklungslebenszyklus ein, indem es die verantwortungsvolle KI-Standard folgt. Dieser Standard gewährleistet Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusivität, Transparenz und Verantwortlichkeit.
In PaaS- und SaaS-Szenarien verwaltet Microsoft die KI-Computeinfrastruktur, Modelltrainingsumgebungen und Anwendungshostingplattformen. Microsoft wendet konsistente Sicherheitsmethoden im Rahmen des Security Development Lifecycle (SDL) an. Zu diesen Methoden gehören Bedrohungsmodellierung, sichere Codeanalyse und Penetrationstests. Microsoft implementiert auch Modellsicherheitssysteme, die Techniken wie retrieval-augmented generation (RAG), Metaprompt Engineering und Missbrauchserkennung verwenden, um Halluzinationen zu reduzieren und die sachliche Erdung zu verbessern.
Datenschutz und Datenschutz sind grundlegend. Microsoft verwendet Kundendaten nicht, um grundlegende Modelle ohne explizite Zustimmung zu trainieren. Microsoft regelt alle Dateninteraktionen anhand seiner Datenschutz-Nachtrags- und Produktbedingungen. Darüber hinaus sorgt Microsoft für Transparenz und Erklärbarkeit, indem umfassende Dokumentation, Haftungsausschlüsse für verantwortungsvolle Verwendung und technische Ressourcen bereitgestellt werden, die Kunden dabei helfen, das Verhalten und die Einschränkungen von KI-Diensten zu verstehen.
Für SaaS-Angebote wie Microsoft Copilot übernimmt Microsoft die operative Verantwortung für den vollständigen Anwendungsstapel. Diese Verantwortung umfasst die Verwaltung des Modelllebenszyklus, die Anwendungsinfrastruktur, die Plug-In-Governance und Sicherheitssysteme. Für PaaS-Modelle wie Azure KI teilt Microsoft die Verantwortung für das Entwerfen, Optimieren und Integrieren von Modellen mit dem Kunden. Microsoft betreibt und sichert weiterhin die zugrunde liegenden Plattformdienste. Weitere Informationen zu IaaS, PaaS und SaaS finden Sie unter Verwenden von PaaS-Optionen (Platform-as-a-Service) und Saas- und mehrinstanzenfähige Lösungsarchitektur.
Verantwortlichkeiten des Kunden
Kunden sind dafür verantwortlich, zu verwalten, wie KI innerhalb ihrer organization verwendet wird. Diese Verantwortung umfasst das Definieren von Richtlinien, das Konfigurieren von Umgebungen und das Aktivieren von Steuerungen, um sicherzustellen, dass KI-Systeme den Geschäftszielen und gesetzlichen Anforderungen entsprechen.
In allen Bereitstellungsmodellen müssen Kunden KI-Governance- und -Aufsichtsmechanismen einrichten, z. B. Nutzungsrichtlinien, Überprüfungsprozesse und verantwortungsvolles KI-Training. Kunden sind auch für die Identitäts-, Geräte- und Zugriffsverwaltung verantwortlich. Sie stellen sicher, dass geeignete rollenbasierte Zugriffssteuerungen und Authentifizierungsmethoden vorhanden sind. Sie müssen Datengovernanceframeworks implementieren, um den Lebenszyklus ihrer Datenressourcen zu klassifizieren, zu schützen und zu verwalten.
Für IaaS- und PaaS-Szenarien sind Kunden die Besitzer des Entwurfs und der Implementierung von KI-Modellen und -Anwendungen. Dieser Besitz umfasst modellauswahl, prompt engineering, fine-tuning und integration in Geschäftssysteme. Kunden sind auch für KI-Plug-In-Konfigurationen, Anwendungssicherheitssysteme und Infrastrukturverwaltung verantwortlich, falls zutreffend.
Auch bei verwendung von SaaS-basierten KI-Lösungen bleiben Kunden für die Schulung und Schulung von Benutzern, das Konfigurieren von Nutzungsrichtlinien und die Sicherstellung verantwortlich, dass Die Ausgaben überprüft und entsprechend verwendet werden. Kunden müssen die KI-Nutzung den geltenden Complianceanforderungen zuordnen, z. B. DSGVO, HIPAA oder dem KI-Gesetz der EU. Sie müssen interne Richtlinien einrichten, die ihre Organisationswerte und Risikotoleranz widerspiegeln.
Kunden müssen proaktive Maßnahmen ergreifen, um Missbrauch zu mindern, KI-generierte Ausgaben zu überprüfen und eine Kultur der verantwortungsvollen KI-Einführung in allen Teams zu fördern.
Informationen dazu, wie Microsoft Kunden bei der Durchführung ihres Teils des Modells der gemeinsamen Verantwortung unterstützt, finden Sie unter Wie wir unsere Kunden beim verantwortungsvollen Aufbau von KI unterstützen (S. 38).
Wie steuert Microsoft die Entwicklung und Verwaltung von KI-Systemen?
Kein Team oder organization ist allein dafür verantwortlich, die Einführung verantwortungsvoller KI-Praktiken voranzutreiben. Wir kombinieren einen verbundbasierten Bottom-up-Ansatz mit starker Top-Down-Unterstützung und -Aufsicht durch die Unternehmensleitung, um unsere Richtlinien, Governance und Prozesse zu fördern. Spezialisten in Forschung, Politik und Technik bündeln ihr Fachwissen und arbeiten an hochmodernen Praktiken zusammen, um sicherzustellen, dass wir unsere eigenen Verpflichtungen erfüllen und gleichzeitig unsere Kunden und Partner unterstützen.
Standard für verantwortungsvolle KI
- Richtlinie für verantwortungsvolle KI: Die Richtlinie für verantwortungsvolle KI von Microsoft basiert auf sechs Grundprinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusion, Transparenz und Verantwortlichkeit. Diese Prinzipien leiten den Entwurf, die Entwicklung und die Bereitstellung von KI-Systemen, um sicherzustellen, dass sie ethisch, vertrauenswürdig und menschenzentriert sind.
- Verantwortungsvolle KI-Standard: Die Umsetzung verantwortungsvoller KI in die Praxis beginnt mit der verantwortungsvollen KI-Standard von Microsoft. In der Standard wird beschrieben, wie verantwortungsvolle KI in Entwicklungsteams, der KI-Entwicklungslebenszyklus und die Tools integriert werden. Ziel ist es, Risiken zu mindern, die Menschenrechte zu wahren und sicherzustellen, dass KI-Technologien der Gesellschaft allgemein zugute kommen. Weitere Informationen zu verantwortungsvoller KI bei Microsoft finden Sie hier.
Rollen und Zuständigkeiten
- Microsoft Board: Unser Management für verantwortungsvolle KI beginnt mit CEO Satya Nadella und kaskadiert über das Führungsteam und das gesamte Microsoft-Team. Das Umwelt-, Sozial- und Public Policy-Komitee des Verwaltungsrats bietet Aufsichts- und Orientierungshilfen für richtlinien und programme für verantwortungsvolle KI.
- Responsible AI Council: Unter der Co-Leitung von Vice Chair und President Brad Smith und Chief Technology Officer Kevin Scott bietet der Responsible AI Council führungskräften und Vertretern aus Forschung, Politik und Technik ein Forum, in dem sie sich regelmäßig mit den größten Herausforderungen im Zusammenhang mit KI auseinandersetzen und fortschritte bei unseren Richtlinien und Prozessen für verantwortungsvolle KI vorantreiben können.
- Office of Responsible AI (ORA):ORA hat die Aufgabe, verantwortungsvolle KI-Prinzipien in die Praxis umzusetzen, was sie über fünf Schlüsselfunktionen erfüllt. ORA legt unternehmensweite interne Richtlinien fest, definiert Governancestrukturen, stellt Ressourcen für die Einführung von KI-Praktiken bereit, überprüft sensible Anwendungsfälle und hilft bei der Gestaltung öffentlicher Richtlinien rund um KI.
- Forschung: Forscher im Komitee für KI Ethics and Effects in Engineering and Research (Aether), Microsoft Research und engineering teams halten das programm für verantwortungsvolle KI durch Vordenker an der Spitze der Probleme.
- Richtlinie: ORA arbeitet mit Projektbeteiligten und Richtlinienteams im gesamten Unternehmen zusammen, um Richtlinien und Verfahren zu entwickeln, um unsere KI-Prinzipien beim Erstellen von KI-Anwendungen einzuhalten.
- Engineering: Entwicklungsteams erstellen KI-Plattformen, Anwendungen und Tools. Sie geben Feedback, um sicherzustellen, dass Richtlinien und Verfahren technisch durchführbar sind, innovative Verfahren und neue Technologien entwickeln und verantwortungsvolle KI-Praktiken im gesamten Unternehmen skalieren.
Welche Prinzipien dienen als Grundlage für das RAI-Programm von Microsoft?
Die Umsetzung verantwortungsvoller KI in die Praxis beginnt mit unserem Standard für verantwortungsvolle KI. In der Standard wird beschrieben, wie verantwortungsvolle KI in Entwicklungsteams, der KI-Entwicklungslebenszyklus und die Tools integriert werden. Die RAI-Standard deckt sechs Bereiche ab und legt 14 Ziele fest, die ki-Risiken und die damit verbundenen Schäden reduzieren sollen. Jedes Ziel im RAI-Standard besteht aus Anforderungen – konkreten Schritten für Teams, um KI-Systeme in Übereinstimmung mit den Domänen zu erstellen.
- Verantwortlichkeit: Wir sind dafür verantwortlich, wie unsere Technologie funktioniert und sich auf die Welt auswirkt.
- Transparenz: Wir sind offen darüber, wie und warum wir KI-Systeme erstellen, welche Einschränkungen es gibt und wie das System Entscheidungen trifft.
- Fairness: Wir stellen sicher, dass KI-Systeme jeden fair behandeln und vermeiden, dass ähnlich gelegene Gruppen von Menschen auf unterschiedliche Weise betroffen sind.
- Zuverlässigkeit und Sicherheit: Wir stellen sicher, dass KI-Systeme so funktionieren, wie sie ursprünglich entworfen wurden, sicher auf unerwartete Bedingungen reagieren und schädlichen Manipulationen widerstehen.
- Datenschutz und Sicherheit: Wir stellen sicher, dass Daten und Modelle geschützt sind und das Grundrecht des Einzelnen auf Privatsphäre gewahrt bleibt.
- Inklusivität: Wir stellen bewusst sicher, dass wir das gesamte Spektrum der Gemeinschaften einbeziehen.
Weitere Informationen zu den Prinzipien der verantwortungsvollen KI finden Sie unter Verantwortungsvolle KI.
Wie implementiert Microsoft die von ORA definierten Richtlinien?
Das Responsible AI Standard (RAI Standard) spiegelt die langfristigen Bemühungen von Microsoft wider, Kriterien für die Produktentwicklung und das Risikomanagement für KI-Systeme festzulegen. Es setzt die RAI-Prinzipien in die Tat um, indem Ziele, Anforderungen und Praktiken für alle von Microsoft entwickelten KI-Systeme definiert werden.
- Ziele: Definieren Sie, was es bedeutet, unsere KI-Prinzipien einzuhalten
- Anforderungen: Definieren, wie wir unsere KI-Prinzipien einhalten müssen
- Methoden: Die Hilfen, mit denen die Anforderungen erfüllt werden
Die wichtigste treibende Kraft im RAI-Standard ist die Folgenabschätzung, bei der das Entwicklungsteam die Ergebnisse für jede Zielanforderung dokumentiert. Für die Ziele der Datenschutz-& Sicherheit und Inklusion gibt die RAI-Standard die Anforderung an, die vorhandenen Datenschutz-, Sicherheits- und Barrierefreiheitsprogramme einzuhalten, die bereits bei Microsoft vorhanden sind, und alle KI-spezifischen Anleitungen zu befolgen, die sie bereitstellen.
Die vollständige RAI-Standard finden Sie in der Dokumentation zu den allgemeinen Anforderungen von Microsoft Responsible AI Standard.
Was ist in den Produktbedingungen abgedeckt?
Die Microsoft-Produktbedingungen definieren die Rechte, Verantwortlichkeiten und Bedingungen, unter denen Kunden Microsoft-Onlinedienste nutzen können, einschließlich KI-fähiger Features wie Microsoft 365 Copilot. Diese Bedingungen sind ein grundlegender Bestandteil der Compliance- und vertraglichen Verpflichtungen von Microsoft. Sie gelten für alle Core Online Services, wie in der Microsoft-Lizenzierungsdokumentation beschrieben.
Insbesondere decken die Produktbedingungen die folgenden Bereiche ab:
- Nutzung von Kundendaten: Microsoft fungiert als Datenverarbeiter und verarbeitet Kundendaten streng in Übereinstimmung mit den Bedingungen, die in den Produktbedingungen und dem Microsoft-Nachtrag zum Datenschutz für Produkte und Dienste (DPA) festgelegt sind. Microsoft verarbeitet Kundendaten nur, um die Dienste bereitzustellen, und verwendet sie niemals ohne explizite Genehmigung zum Trainieren von Basismodellen.
- Anforderungen an die zulässige Nutzung: Kunden müssen die Richtlinie für die akzeptable Nutzung von Microsoft einhalten, die in den Produktbedingungen enthalten ist. Diese Richtlinie umfasst Einschränkungen für den Missbrauch von KI-Features. Beispielsweise können Kunden sicherheitsfilter nicht absichtlich umgehen oder versuchen, Metaprompts in Microsoft 365 Copilot zu manipulieren.
- Modell für gemeinsame Verantwortung: Die Produktbedingungen verdeutlichen die Aufteilung der Betriebs- und Compliance-Verantwortlichkeiten zwischen Microsoft und dem Kunden. Für SaaS-Lösungen (Software-as-a-Service) wie Copilot verwaltet Microsoft die Infrastruktur, den Modellbetrieb und eingebettete Sicherheitssysteme. Kunden sind für die geeignete Verwendung, Zugriffssteuerungen und Die Schulung der Benutzer verantwortlich.
- Dienstabdeckung: In den Produktbedingungen sind alle abgedeckten Dienste aufgeführt – als Core Online Services bezeichnet – und es wird definiert, wie die einzelnen Dienste den Datenschutz-, Sicherheits- und Complianceverpflichtungen von Microsoft entsprechen.
- Transparenz und Vertrauen: Die Produktbedingungen arbeiten in Verbindung mit Ressourcen wie dem Microsoft Trust Center, dem Service Trust Portal und dem Compliance-Manager, um Einblick in die Art und Weise zu bieten, wie Microsoft seine Dienste entwickelt, schützt und betreibt, einschließlich der durch KI erweiterten Dienste.
Microsoft stellt diese Bedingungen öffentlich zur Verfügung und aktualisiert sie regelmäßig, um sich entwickelnde Technologien, regulatorische Anforderungen und interne Richtlinien, einschließlich des Responsible AI Standard (RAIS), widerzuspiegeln. Kunden sollten die Produktbedingungen in regelmäßigen Abständen überprüfen, um über Die Rechte und Pflichten der Dienste auf dem Laufenden zu bleiben.
Wie sieht der Lebenszyklus eines Microsoft KI-Systems aus?
Microsoft-Entwicklungsteams implementieren eine Reihe von technischen Sicherheitsvorkehrungen, um sicherzustellen, dass KI-Systeme sicher, zuverlässig und an unseren Standards für verantwortungsvolle KI ausgerichtet sind. Dieser Ansatz umfasst die proaktive Identifizierung und Abmilderung von Risiken im Zusammenhang mit Fairness, Sicherheit, Zuverlässigkeit, Datenschutz, Inklusion und Transparenz. Der KI-Entwicklungszyklus folgt einem iterativen, risikoorientierten Framework, das sicherstellen soll, dass generative KI-Anwendungen verantwortungsvoll erstellt und bereitgestellt werden. Dieser Lebenszyklus basiert auf vier Kernfunktionen, die mit dem NIST AI Risk Management Framework übereinstimmen. Zusammen führen diese Phasen Teams durch verantwortungsvolle Innovation und Risikominderung. Weitere Informationen zum Entwicklungszyklus und zur verantwortungsvollen KI finden Sie unter Verantwortungsvolle KI.
Governance: Die Governancephase legt die Grundlage für verantwortungsvolle KI, indem die Rollen, Zuständigkeiten und Richtlinien festgelegt werden, die die Entwicklung und Bereitstellung von KI-Systemen steuern. Bei Microsoft beginnt diese Phase mit der verantwortungsvollen KI-Standard, die sicherstellt, dass die KI-Entwicklung mit den Grundprinzipien des Unternehmens übereinstimmt, einschließlich Fairness, Verantwortlichkeit und Transparenz. Governance umfasst das Entwickeln und Aktualisieren von Richtlinien, die durch sich entwickelnde Vorschriften und beiträge der Beteiligten informiert sind, die Durchführung von Überprüfungen vor der Bereitstellung und die Notwendigkeit von Transparenzmaterialien, um Benutzern zu helfen, KI-Funktionen und -Einschränkungen zu verstehen. Die funktionsübergreifende Zusammenarbeit wird ebenfalls hervorgehoben, um sicherzustellen, dass Rechts-, Ingenieurs- und Richtlinienexperten zusammenarbeiten, um KI-Projekte effektiv zu überwachen.
Karte: Zuordnung bezieht sich auf die Identifizierung und Priorisierung der Risiken im Zusammenhang mit KI-Systemen. Microsoft beginnt diese Phase mit einer Folgenabschätzung für verantwortungsvolle KI, um das Schadenspotenzial zu bewerten und geeignete Risikominderungen zu ermitteln. Datenschutz und Sicherheit werden mithilfe von Tools wie Bedrohungsmodellierung überprüft, während KI-Red-Teaming verwendet wird, um Angreifer- oder Missbrauchsszenarien zu simulieren, die Sicherheitsrisiken aufdecken könnten. Diese Phase hilft Microsoft zu verstehen, wie sich Risiken in der Praxis manifestieren können, und stellt sicher, dass Systeme ganzheitlich bewertet werden, von den zugrunde liegenden Modellen bis zur vollständigen Anwendungsumgebung.
Measure: Sobald Risiken identifiziert wurden, konzentriert sich die Measurephase darauf, sie mithilfe definierter Metriken systematisch auszuwerten. Diese Bewertung umfasst die Bewertung der Wahrscheinlichkeit, dass schädliche Inhalte generiert werden, die Wirksamkeit von Sicherheitsminderungen und die Leistung von KI-Ausgaben in Bereichen wie Grundfähigkeit (sachliche Ausrichtung mit Quelldaten), Relevanz und Inhaltssicherheit. Microsoft verwendet Tools, die in Azure KI Studio integriert sind, z. B. Sicherheitsauswertungen und Datasets für Angreifertests, um Ausgaben zu überwachen. Diese Auswertungen helfen Teams dabei, fundierte Entscheidungen zu treffen und das KI-Verhalten zu verfeinern, um sicherzustellen, dass die Ergebnisse den Standards für verantwortungsvolle Verwendung entsprechen.
Verwalten: Die Verwaltungsphase umfasst die Implementierung von Entschärfungen und die kontinuierliche Überwachung von KI-Systemen während ihres gesamten Lebenszyklus. Das Risikomanagement erfolgt sowohl auf Plattform- als auch auf Anwendungsebene. Für instance können Anpassungen auf Modellebene die Feinabstimmung oder Bereitstellung von Inhaltsfiltern umfassen, während Strategien auf Anwendungsebene sich auf das Grounding von Ausgaben, das Entwerfen intuitiver Benutzeroberflächen und die Einbeziehung von produktinternen Offenlegungen zur Förderung der Transparenz konzentrieren. Microsoft verwendet auch gestaffelte Rollouts und laufende Überwachungssysteme, um Leistungsprobleme zu erkennen, Feedback zu sammeln und auf Incidents zu reagieren. Tools wie Prompt Shield werden bereitgestellt, um sich vor Jailbreakversuchen zu schützen, und Inhaltsanmeldeinformationen helfen bei der Kennzeichnung und Nachverfolgung von KI-generierten Inhalten, um Herkunft und Vertrauenswürdigkeit sicherzustellen.
Überprüfungen vor der Bereitstellung und Beratung bei sensibler Verwendung
Microsoft hat ein internes Workflowtool eingeführt, das die Anforderungen an verantwortungsvolle KI zentralisiert und die Dokumentation für Überprüfungen vor der Bereitstellung vereinfacht. Für fälle mit hoher Auswirkung oder sensiblen Anwendungsfällen, z. B. in Bezug auf biometrische Daten oder kritische Infrastrukturen, bietet Microsoft praktische Beratung, um eine verstärkte Kontrolle und ethische Ausrichtung sicherzustellen.
Kontinuierliches Lernen und Anpassung
Der Überprüfungsprozess ist nicht statisch. Microsoft entwickelt seine Verfahren kontinuierlich weiter auf der Grundlage von:
- Fortschritte bei KI-Funktionen
- Feedback von Kunden, Regulierungsbehörden und der Zivilgesellschaft
- Praktische Bereitstellungserfahrungen
Dieser iterative Ansatz stellt sicher, dass die KI-Systeme von Microsoft vertrauenswürdig bleiben, auch wenn sich die Technologie- und Regulierungslandschaft weiterentwickelt.
Link zum Transparenzbericht: Transparenzbericht für verantwortungsvolle KI 2025
Was ist Copilot und wie funktioniert es?
Microsoft Copilot ist eine Familie von KI-gestützten Assistenten, die in Microsoft 365, Dynamics 365, GitHub und anderen Plattformen integriert sind. Diese Copiloten verbessern die Produktivität, automatisieren Aufgaben und unterstützen die Entscheidungsfindung – und zwar innerhalb der Unternehmensgrenzen von Microsoft für Sicherheit, Compliance und Datenschutz.
Copilot-Produkte
Microsoft bietet verschiedene Copilot-Typen an, die jeweils auf bestimmte Umgebungen zugeschnitten sind:
- Microsoft 365 Copilot: Eingebettet in Apps wie Word, Excel, Outlook und Teams zur Unterstützung bei der Inhaltsgenerierung, Zusammenfassung und Aufgabenautomatisierung.
- Copilot for Dynamics 365: Unterstützt Geschäftsprozesse wie Finanzen, Vertrieb und Kundendienst, indem Erkenntnisse gewonnen und Workflows automatisiert werden.
- GitHub Copilot: Unterstützt Entwickler durch Vorschlagen von Code und Dokumentation innerhalb von IDEs.
- Security Copilot: Unterstützt Sicherheitsanalysten bei der Untersuchung von Bedrohungen und beim Reagieren auf Vorfälle mithilfe von Abfragen in natürlicher Sprache.
- Copilot Studio: Ermöglicht Es Organisationen, benutzerdefinierte Copiloten mithilfe von Low-Code-Tools zu erstellen und in Microsoft Graph und Azure OpenAI zu integrieren.
Copilot-Prozess
Copilot arbeitet über einen mehrstufigen Prozess:
- Eingabe: Der Benutzer gibt eine Eingabeaufforderung ein (z. B. "Diesen E-Mail-Thread zusammenfassen").
- Erdung: Das System ruft relevante Unternehmensdaten mithilfe von Microsoft Graph, SharePoint oder anderen Connectors ab.
- Verarbeitung: Das System sendet die Eingabeaufforderungs- und Bodendaten an eine LLM (z. B. GPT-4), die in Azure OpenAI oder einer anderen von Microsoft gesteuerten Umgebung gehostet wird.
- Antwort: Das Modell generiert eine Antwort und gibt sie innerhalb des Anwendungskontexts an den Benutzer zurück.
- Nachbearbeitung: Microsoft wendet Sicherheitsfilter, Inhaltsmoderation und Formatierung an, bevor die Ausgabe angezeigt wird.
Diese Architektur stellt sicher, dass Copilot-Antworten kontextrelevant, sicher und an den Datengovernancerichtlinien des Unternehmens ausgerichtet sind.
Auf welche Daten greift Copilot zu?
Copilot greift nur auf Daten zu, für die Sie bereits berechtigt sind. Zu diesen Daten gehören:
- E-Mails, Dokumente und Chats in Microsoft 365
- CRM-Datensätze in Dynamics 365
- Coderepositorys in GitHub
- Sicherheitsprotokolle in Microsoft Sentinel (für Security Copilot)
Microsoft Entra ID steuert den Zugriff, und der gesamte Datenzugriff ist auf Ihre Berechtigungen festgelegt. Copilot überschreibt keine vorhandenen Zugriffssteuerungen oder macht nicht autorisierte Inhalte verfügbar. Weitere Informationen zu KI-Sicherheit für Microsoft 365 Copilot finden Sie unter KI-Sicherheit für Microsoft 365 Copilot.
Copilot für Microsoft 365 verwendet keine Kundendaten zum Trainieren von Basismodellen, wie in unseren Verpflichtungen angegeben. Weitere Informationen finden Sie in den Microsoft-Produktbedingungen. Copilot für Microsoft 365 verwendet von OpenAI bereitgestellte Basismodelle. Die von Copilot für Microsoft 365 verwendeten Basismodelle lernen nicht dynamisch basierend auf der Verwendung. Während der Entwicklung dieser Basismodelle hält OpenAI hohe Standards für die Anonymisierung von Daten vor dem Trainieren von Modellen ein. OpenAI verbessert diese Systeme weiterhin iterativ und behält die Qualitätskontrolle durch die Überprüfung der menschlichen Trainingsdaten auf, um falsch negative Ergebnisse zu entfernen.
Weitere Informationen zu Kontrollen, die Microsoft 365 implementiert, um unseren Zuständigkeiten, Verpflichtungen und Verpflichtungen für Microsoft 365 Copilot nachzukommen, finden Sie im Service Trust Portal.
Copilot-Datenspeicherung
Copilot-Interaktionen werden im Exchange Online Postfach des Benutzers gespeichert. Zu diesen Daten gehören:
- Eingabeaufforderungs- und Antwortpaare
- Metadaten für Überwachung und Compliance
- Protokolle für die Analyse von Copilot-Sicherheitsdaten (CSD)
Microsoft Purview-Richtlinien verwalten die Aufbewahrung:
- Standardaufbewahrung: Nachrichten werden für einen konfigurierbaren Zeitraum (z. B. 30, 90 oder 365 Tage) aufbewahrt.
- Löschung: Nach Ablauf des Aufbewahrungszeitraums werden Daten in den Ordner SubstrateHolds verschoben und dann endgültig gelöscht, sofern keine gesetzliche Aufbewahrungspflicht oder eine andere Aufbewahrungsrichtlinie gilt.
- eDiscovery: Sie können alle gespeicherten Daten mit Microsoft Purview-eDiscovery Tools durchsuchen.