Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Microsoft 365-Lizenzierungsleitfaden für Sicherheit & Compliance
Verwenden Sie die folgenden Abschnitte, um die Microsoft Purview-Funktionen zu identifizieren, die für KI-Interaktionen mit Microsoft 365 Copilot & Microsoft 365 Copilot Chat unterstützt werden, und einige Empfehlungen für die ersten Schritte für Sie, um diese KI-Interaktionen aus Sicherheits- und Compliancegründen zu verwalten.
Unterstützte Funktionen
Verwenden Sie die folgende Tabelle, um auf einen Blick die Microsoft Purview-Funktionen anzuzeigen, die mit Microsoft 365 Copilot & Microsoft 365 Copilot Chat unterstützt werden.
Funktion oder Lösung in Microsoft Purview | Unterstützt für KI-Interaktionen |
---|---|
DSSM für KI | ✓ |
Überwachung | ✓ |
Datenklassifizierung | ✓ |
Vertraulichkeitsbezeichnungen | ✓ |
Verschlüsselung ohne Vertraulichkeitsbezeichnungen | ✓ |
Verhinderung von Datenverlust | ✓ |
Insider-Risikomanagement | ✓ |
Kommunikationscompliance | ✓ |
eDiscovery | ✓ |
Datenlebenszyklusverwaltung | ✓ |
Compliance-Manager | ✓ |
Datensicherheitstatus-Management für KI
Verwenden Sie Microsoft Purview Datensicherheitstatus-Management (DSSM) für KI als Front Door, um Compliancekontrollen für die KI-Nutzung im gesamten Unternehmen zu ermitteln, zu schützen und anzuwenden. Diese Lösung verwendet vorhandene Steuerelemente aus Microsoft Purview Information Protection und Compliance Management mit einfach zu verwendenden grafischen Tools und Berichten, um schnell Einblicke in die KI-Verwendung in Ihrem organization zu erhalten. Mit personalisierten Empfehlungen helfen Ihnen 1-Klick-Richtlinien, Ihre Daten zu schützen und gesetzliche Anforderungen zu erfüllen.
Weitere Informationen finden Sie unter Informationen zu Datensicherheitstatus-Management (DSSM) für KI.
KI-App-spezifische Informationen:
Datenrisikobewertungen helfen Ihnen, Probleme zu identifizieren und zu beheben, die zu einer übermäßigen Freigabe von Daten führen können. Aus den Empfehlungen:
- Schützen Sie Ihre Daten vor potenziellen Überteilungsrisiken für die standardmäßige wöchentliche Datenrisikobewertung.
- Schützen Sie Verweise auf vertrauliche Daten in Copilot- und Agentantworten für eine benutzerdefinierte Datenrisikobewertung.
Empfehlung Erhalten Sie anleitungen Unterstützung für KI-Vorschriften, die gesetzliche Vorlagen für die Steuerungszuordnung aus dem Compliance-Manager verwenden.
Verfügbare 1-Klick-Richtlinien :
- Vertraulichkeitsbezeichnungen und Richtlinien aus der Empfehlung Schützen Sie Ihre Daten mit Vertraulichkeitsbezeichnungen.
- DSSM für KI: Erkennen riskanter KI-Nutzung aus der Empfehlung Erkennen riskanter Interaktionen in KI-Apps.
- DSSM für KI : Unethisches Verhalten in KI-Apps aus der Empfehlung Erkennen von unethischem Verhalten in KI.
- DSSM für KI: Schützen vertraulicher Daten vor der Copilot-Verarbeitung aus der Empfehlung Schützen von Elementen mit Vertraulichkeitsbezeichnungen von Microsoft 365 Copilot und Agent-Verarbeitung
- DSSM für KI: Erkennen vertraulicher Informationen, die über ein Netzwerk für KI freigegeben werden, aus der Empfehlung Erweitern von Erkenntnissen in sensiblen Daten in KI-App-Interaktionen.
Überwachung und KI-Interaktionen
Microsoft Purview Audit Lösungen bieten umfassende Tools zum Durchsuchen und Verwalten von Überwachungsdatensätzen von Aktivitäten, die von Benutzern und Administratoren in verschiedenen Microsoft-Diensten ausgeführt werden, und helfen Organisationen dabei, effektiv auf Sicherheitsereignisse, forensische Untersuchungen, interne Untersuchungen und Compliance-Verpflichtungen zu reagieren.
Wie andere Aktivitäten werden Eingabeaufforderungen und Antworten im einheitlichen Überwachungsprotokoll erfasst. Ereignisse umfassen, wie und wann Benutzer mit der KI-App interagieren, und können einschließen, in welchem Microsoft 365-Dienst die Aktivität stattgefunden hat, sowie Verweise auf die in Microsoft 365 gespeicherten Dateien, auf die während der Interaktion zugegriffen wurde. Wenn auf diese Dateien eine Vertraulichkeitsbezeichnung angewendet wird, wird diese ebenfalls erfasst.
Diese Ereignisse fließen in den Aktivitäts-Explorer in Datensicherheitstatus-Management für KI ein, wo die Daten von Eingabeaufforderungen und Antworten angezeigt werden können. Sie können auch die Überwachungslösung aus dem Microsoft Purview-Portal verwenden, um diese Überwachungsereignisse zu suchen und zu finden.
Weitere Informationen finden Sie unter Überwachungsprotokolle für Copilot- und KI-Aktivitäten.
KI-App-spezifische Informationen:
- Wenn Sie Benutzereingabeaufforderungen und -antworten löschen müssen, finden Sie weitere Informationen unter Suchen und Löschen von Daten für Copilot.
Datenklassifizierung und KI-Interaktionen
Die Microsoft Purview-Datenklassifizierung bietet ein umfassendes Framework zum Identifizieren und Markieren vertraulicher Daten in verschiedenen Microsoft-Diensten, einschließlich Office 365, Dynamics 365 und Azure. Die Klassifizierung von Daten ist häufig der erste Schritt, um die Einhaltung der Datenschutzbestimmungen und den Schutz vor unbefugtem Zugriff, Änderung oder Zerstörung sicherzustellen. Sie können integrierte Systemklassifizierungen verwenden oder eigene erstellen.
Vertrauliche Informationstypen und trainierbare Klassifizierer können verwendet werden, um vertrauliche Daten in Eingabeaufforderungen und Antworten von Benutzern zu finden, wenn sie KI-Apps verwenden. Die resultierenden Informationen werden dann in der Datenklassifizierung Dashboard und im Aktivitäts-Explorer in Datensicherheitstatus-Management für KI angezeigt.
Vertraulichkeitsbezeichnungen und KI-Interaktionen
KI-Apps, die Microsoft Purview unterstützen, verwenden vorhandene Steuerelemente, um sicherzustellen, dass in Ihrem Mandanten gespeicherte Daten niemals an den Benutzer zurückgegeben oder von einem großen Sprachmodell (LLM) verwendet werden, wenn der Benutzer keinen Zugriff auf diese Daten hat. Wenn für die Daten Vertraulichkeitsbezeichnungen aus Ihrem organization auf den Inhalt angewendet werden, gibt es eine zusätzliche Schutzebene:
Wenn eine Datei in Word, Excel, PowerPoint oder ähnlich einem E-Mail- oder Kalenderereignis in Outlook geöffnet ist, wird die Vertraulichkeit der Daten für Benutzer in der App mit dem Bezeichnungsnamen und den Inhaltsmarkierungen (z. B. Kopf- oder Fußzeilentext) angezeigt, die für die Bezeichnung konfiguriert wurden. Loop Komponenten und Seiten unterstützen auch die gleichen Vertraulichkeitsbezeichnungen.
Wenn die Vertraulichkeitsbezeichnung Verschlüsselung anwendet, müssen Benutzer über das Extract-Nutzungsrecht sowie ÜBER VIEW verfügen, damit die KI-Apps die Daten zurückgeben können.
Dieser Schutz gilt auch für Daten, die außerhalb Ihres Microsoft 365-Mandanten gespeichert sind, wenn sie in einer Office-App geöffnet sind (Daten werden verwendet). Beispielsweise lokaler Speicher, Netzwerkfreigaben und Cloudspeicher.
Tipp
Falls noch nicht geschehen, empfehlen wir Ihnen, Vertraulichkeitsbezeichnungen für SharePoint und OneDrive zu aktivieren und sich auch mit den Dateitypen und Bezeichnungskonfigurationen vertraut zu machen, die von diesen Diensten verarbeitet werden können. Wenn Vertraulichkeitsbezeichnungen für diese Dienste nicht aktiviert sind, sind die verschlüsselten Dateien, auf die Copilot und Agents zugreifen können, auf Daten beschränkt, die von Office-Apps unter Windows verwendet werden.
Anweisungen finden Sie unter Aktivieren von Vertraulichkeitsbezeichnungen für Office-Dateien in SharePoint und OneDrive.
Wenn Sie noch keine Vertraulichkeitsbezeichnungen verwenden, lesen Sie Erste Schritte mit Vertraulichkeitsbezeichnungen.
KI-App-spezifische Informationen:
Microsoft 365 Copilot Chat zeigt die Vertraulichkeitsbezeichnung für Elemente an, die in der Antwort und den Zitaten aufgeführt sind. Mithilfe der im Microsoft Purview-Portal definierten Prioritätsnummer der Vertraulichkeitsbezeichnungen zeigt die neueste Antwort in Copilot die Vertraulichkeitsbezeichnung mit der höchsten Priorität aus den Daten an, die für diesen Copilot-Chat verwendet werden.
Obwohl Complianceadministratoren die Priorität einer Vertraulichkeitsbezeichnung definieren, bedeutet eine höhere Prioritätszahl in der Regel eine höhere Vertraulichkeit des Inhalts mit restriktiveren Berechtigungen. Daher werden Copilot-Antworten mit der restriktivsten Vertraulichkeitsbezeichnung gekennzeichnet.
Copilot in Word und Copilot in PowerPoint unterstützen die Vererbung von Vertraulichkeitsbezeichnungen für neu erstellte Inhalte. Weitere Informationen finden Sie im folgenden Abschnitt.
Vererbung von Vertraulichkeitsbezeichnungen
Wenn Sie Copilot in Word oder Copilot in PowerPoint verwenden, um neue Inhalte basierend auf einem Element zu erstellen, auf das eine Vertraulichkeitsbezeichnung angewendet wurde, wird die Vertraulichkeitsbezeichnung aus der Quelldatei automatisch mit den Schutzeinstellungen der Bezeichnung geerbt.
Beispielsweise wählt ein Benutzer Entwurf mit Copilot in Word und dann Auf eine Datei verweisen aus. Oder ein Benutzer wählt Präsentation aus Datei in PowerPoint erstellen oder In Seiten aus Microsoft 365 Copilot Chat bearbeiten aus. Auf den Quellinhalt ist die Vertraulichkeitsbezeichnung Confidential\Anyone (uneingeschränkt) angewendet, und diese Bezeichnung ist so konfiguriert, dass eine Fußzeile angewendet wird, die "Vertraulich" anzeigt. Der neue Inhalt erhält automatisch die Bezeichnung Vertraulich\Jeder (uneingeschränkt) mit derselben Fußzeile.
Um ein Beispiel dafür in Aktion zu sehen, watch die folgende Demo aus der Ignite 2023-Sitzung "Getting your enterprise ready for Microsoft 365 Copilot". Die Demo zeigt, wie die Standard-Vertraulichkeitsbezeichnung " Allgemein " durch eine Vertrauliche Bezeichnung ersetzt wird, wenn ein Benutzer einen Entwurf mit Copilot erstellt und auf eine beschriftete Datei verweist. Die Informationsleiste unter dem Menüband informiert den Benutzer darüber, dass von Copilot erstellte Inhalte dazu geführt haben, dass die neue Bezeichnung automatisch angewendet wurde:
Wenn mehrere Dateien zum Erstellen neuer Inhalte verwendet werden, wird die Vertraulichkeitsbezeichnung mit der höchsten Priorität für die Bezeichnungsvererbung verwendet.
Wie bei allen Szenarien mit automatischen Bezeichnungen kann der Benutzer eine geerbte Bezeichnung jederzeit überschreiben und ersetzen (oder entfernen, wenn Sie keine obligatorische Bezeichnung verwenden).
Verschlüsselung ohne Vertraulichkeitsbezeichnungen und KI-Interaktionen
Auch wenn eine Vertraulichkeitsbezeichnung nicht auf Inhalte angewendet wird, verwenden Dienste und Produkte möglicherweise die Verschlüsselungsfunktionen des Azure Rights Management-Diensts. Daher können KI-Apps weiterhin nach den VIEW- und EXTRACT-Nutzungsrechten suchen, bevor Sie Daten und Links an einen Benutzer zurückgeben, aber es gibt keine automatische Vererbung des Schutzes für neue Elemente.
Tipp
Sie erhalten die beste Benutzererfahrung, wenn Sie immer Vertraulichkeitsbezeichnungen verwenden, um Ihre Daten zu schützen und die Verschlüsselung durch eine Bezeichnung angewendet wird.
Beispiele für Produkte und Dienste, die die Verschlüsselungsfunktionen des Azure Rights Management-Diensts ohne Vertraulichkeitsbezeichnungen verwenden können:
- Microsoft Purview-Nachrichtenverschlüsselung
- Microsoft Information Rights Management (IRM)
- Microsoft Rights Management-Connector
- Microsoft Rights Management SDK
Für andere Verschlüsselungsmethoden, die den Azure Rights Management-Dienst nicht verwenden:
S/MIME-geschützte E-Mails werden von Copilot nicht zurückgegeben, und Copilot ist in Outlook nicht verfügbar, wenn eine mit S/MIME geschützte E-Mail geöffnet ist.
Auf kennwortgeschützte Dokumente kann von KI-Apps nur zugegriffen werden, wenn sie bereits vom Benutzer in derselben App geöffnet wurden (verwendete Daten). Kennwörter werden nicht von einem Zielelement geerbt.
Wie bei anderen Microsoft 365-Diensten, z. B. eDiscovery und Search, werden Mit Dem Microsoft Purview-Kundenschlüssel oder Ihrem eigenen Stammschlüssel (BYOK) verschlüsselte Elemente unterstützt und können von Copilot zurückgegeben werden.
Verhinderung von Datenverlust und KI-Interaktionen
Microsoft Purview Data Loss Prevention (DLP) hilft Ihnen, vertrauliche Elemente in Microsoft 365-Diensten und -Endpunkten zu identifizieren, sie zu überwachen und vor Leckagen dieser Elemente zu schützen. Es verwendet umfassende Inhaltsüberprüfungen und kontextbezogene Analysen, um vertrauliche Elemente zu identifizieren, und erzwingt Richtlinien zum Schutz vertraulicher Daten wie Finanzdaten, Gesundheitsinformationen oder geistiges Eigentum.
Windows-Computer, die in Microsoft Purview integriert sind, können für DLP-Richtlinien (Endpoint Data Loss Prevention, Verhinderung von Datenverlust) konfiguriert werden, die Benutzer davor warnen oder blockieren, vertrauliche Informationen mit generativen KI-Websites von Drittanbietern freizugeben, auf die über einen Browser zugegriffen wird. Beispielsweise wird ein Benutzer daran gehindert, Guthaben Karte Nummern in ChatGPT einzufügen, oder er sieht eine Warnung, die er überschreiben kann. Weitere Informationen zu den unterstützten DLP-Aktionen und zu den plattformen, die diese unterstützen, finden Sie in den ersten beiden Zeilen in der Tabelle unter Endpunktaktivitäten, die Sie überwachen und maßnahmen ergreifen können.
Darüber hinaus kann eine DLP-Richtlinie, die auf einen KI-Standort beschränkt ist, die Verarbeitung vertraulicher Inhalte durch KI-Apps einschränken. Eine DLP-Richtlinie kann beispielsweise einschränken, dass Microsoft 365 Copilot Dateien basierend auf Vertraulichkeitsbezeichnungen wie "Streng vertraulich" zusammenfassen können. Nach dem Aktivieren dieser Richtlinie fassen Microsoft 365 Copilot und Agents keine Dateien mit der Bezeichnung "Streng vertraulich" zusammen, sondern können mit einem Link darauf verweisen, damit der Benutzer den Inhalt dann mit Word öffnen und anzeigen kann. Weitere Informationen zu den KI-Apps, die diese DLP-Konfiguration unterstützen, finden Sie unter Informationen zum Speicherort der Microsoft 365 Copilot-Richtlinie.
KI-App-spezifische Informationen:
- Die folgenden Endpunkt-DLP-Funktionen werden nur für Microsoft 365 Copilot Chat unterstützt:
- Einfügen vertraulicher Inhalte blockieren
- Blockieren von Dateien basierend auf einer angegebenen Vertraulichkeitsbezeichnung
Insider-Risikomanagement und KI-Interaktionen
Microsoft Purview Insider Risk Management hilft Ihnen, interne Risiken wie IP-Diebstahl, Datenlecks und Sicherheitsverletzungen zu erkennen, zu untersuchen und zu mindern. Es nutzt Machine Learning-Modelle und verschiedene Signale von Microsoft 365 und Indikatoren von Drittanbietern, um potenzielle böswillige oder unbeabsichtigte Insider-Aktivitäten zu identifizieren. Die Lösung umfasst Datenschutzkontrollen wie Pseudonymisierung und rollenbasierten Zugriff, um den Datenschutz auf Benutzerebene sicherzustellen und Risikoanalysten gleichzeitig die Möglichkeit zu geben, geeignete Maßnahmen zu ergreifen.
Verwenden Sie die Vorlage riskante KI-Nutzungsrichtlinien , um riskante Nutzungen zu erkennen, die Angriffe zur Einschleusung von Aufforderungen und den Zugriff auf geschützte Materialien umfassen. Erkenntnisse aus diesen Signalen werden in Microsoft Defender XDR integriert, um einen umfassenden Überblick über KI-bezogene Risiken zu bieten.
Kommunikationscompliance und KI-Interaktionen
Microsoft Purview Communication Compliance stellt Tools bereit, die Ihnen helfen, Verstöße gegen die Einhaltung gesetzlicher Bestimmungen und Geschäftsverhalten über verschiedene Kommunikationskanäle hinweg zu erkennen und zu verwalten, einschließlich Benutzeraufforderungen und Antworten für KI-Apps. Es ist standardmäßig auf Datenschutz ausgelegt, pseudonymisiert Benutzernamen und integriert rollenbasierte Zugriffssteuerungen. Die Lösung hilft dabei, unangemessene Kommunikationen zu identifizieren und zu beheben, z. B. die Weitergabe vertraulicher Informationen, Belästigungen, Bedrohungen und nicht jugendfreier Inhalte.
Weitere Informationen zur Verwendung von Kommunikationscompliancerichtlinien für KI-Apps finden Sie unter Konfigurieren einer Kommunikationskonformitätsrichtlinie zur Erkennung für generative KI-Interaktionen.
eDiscovery- und KI-Interaktionen
mit Microsoft Purview-eDiscovery können Sie elektronische Informationen identifizieren und übermitteln, die in Rechtsfällen als Beweismittel verwendet werden können. Die eDiscovery-Tools in Microsoft Purview unterstützen die Suche nach Inhalten in Exchange Online, OneDrive for Business, SharePoint Online, Microsoft Teams, Microsoft 365-Gruppen und Viva Engage Teams. Anschließend können Sie verhindern, dass die Informationen gelöscht und exportiert werden.
Da Benutzereingabeaufforderungen und Antworten für KI-Apps im Postfach eines Benutzers gespeichert werden, können Sie einen Fall erstellen und die Suche verwenden, wenn das Postfach eines Benutzers als Quelle für eine Suchabfrage ausgewählt ist. Wählen Sie z. B. diese Daten aus dem Quellpostfach aus, und rufen Sie sie aus, indem Sieim Abfrage-GeneratorBedingungstyp>>entspricht einer der> Optionen >Hinzufügen/Entfernencopilot-Interaktionen auswählen.
Nachdem die Suche optimiert wurde, können Sie die Ergebnisse exportieren oder einem Überprüfungssatz hinzufügen. Sie können Informationen direkt aus dem Überprüfungssatz überprüfen und exportieren.
Weitere Informationen zum Identifizieren und Löschen von Benutzer-KI-Interaktionsdaten finden Sie unter Suchen und Löschen von Copilot-Daten in eDiscovery.
Datenlebenszyklusverwaltung und KI-Interaktionen
Microsoft Purview-Datenlebenszyklusverwaltung bietet Tools und Funktionen zum Verwalten des Lebenszyklus von Organisationsdaten, indem erforderliche Inhalte aufbewahrt und nicht benötigte Inhalte gelöscht werden. Diese Tools stellen die Einhaltung geschäftlicher, rechtlicher und behördlicher Anforderungen sicher.
Verwenden Sie Aufbewahrungsrichtlinien , um Benutzereingabeaufforderungen und -antworten für KI-Apps automatisch aufzubewahren oder zu löschen. Ausführliche Informationen zu dieser Aufbewahrung finden Sie unter Informationen zur Aufbewahrung für Copilot & KI-Apps.
Wie bei allen Aufbewahrungsrichtlinien und Aufbewahrungsrichtlinien lösen die Prinzipien der Aufbewahrung alle Konflikte, wenn mehr als eine Richtlinie für denselben Speicherort für einen Benutzer gilt. Beispielsweise werden die Daten für die längste Dauer aller angewendeten Aufbewahrungsrichtlinien oder eDiscovery-Aufbewahrungen aufbewahrt.
KI-App-spezifische Informationen:
Wählen Sie für Aufbewahrungsrichtlinien die Option für Microsoft Copilot Erfahrungen aus.
Aufbewahrungsbezeichnungen können Dateien, auf die in Microsoft 365 Copilot verwiesen wird, automatisch beibehalten, wenn Sie die Option für Cloudanlagen mit automatisch angewendeter Aufbewahrungsbezeichnungsrichtlinie auswählen: Bezeichnung auf Cloudanlagen und links anwenden, die in Exchange, Teams, Viva Engage und Copilot freigegeben sind. Wie bei allen beibehaltenen Cloudanlagen wird die Dateiversion zum Zeitpunkt des Verweises beibehalten.
Ausführliche Informationen zur Funktionsweise dieser Aufbewahrung finden Sie unter Funktionsweise der Aufbewahrung mit Cloudanlagen.
Compliance-Manager und KI-Interaktionen
Microsoft Purview Compliance Manager ist eine Lösung, mit der Sie die Compliance in Ihrer Multicloudumgebung automatisch bewerten und verwalten können. Compliance-Manager kann Ihnen während ihrer gesamten Compliance-Reise helfen, von der Bestandsaufnahme Ihrer Datenschutzrisiken bis hin zur Verwaltung der Komplexität der Implementierung von Kontrollen, der Einhaltung von Vorschriften und Zertifizierungen und der Berichterstellung für Prüfer.
Um Ihnen zu helfen, die Einhaltung von KI-Vorschriften einzuhalten, stellt Compliance-Manager regulatorische Vorlagen bereit, mit denen Sie Ihre Complianceanforderungen für alle generativen KI-Apps bewerten, implementieren und stärken können. Beispielsweise die Überwachung von KI-Interaktionen und das Verhindern von Datenverlusten in KI-Anwendungen. Weitere Informationen finden Sie unter Bewertungen für KI-Vorschriften.
Empfohlene Schritte für erste Schritte
Führen Sie die folgenden Schritte aus, um mit der Verwaltung von Datensicherheit & Compliance für KI-Interaktionen von Microsoft 365 Copilot & Microsoft 365 Copilot Chat aus zu beginnen.
Da Datensicherheitstatus-Management für KI für die Sicherung und Verwaltung von KI-Interaktionen ihre Erste ist, verwenden die meisten der folgenden Anweisungen diese Lösung:
Anmelden beim Microsoft Purview-Portal>Lösungen>DSSM für KI mit einem Konto, das über die entsprechenden Berechtigungen verfügt. Beispielsweise ein Konto, das Mitglied der Gruppenrolle Microsoft Entra Complianceadministrator ist.
Erkennen potenzieller Sicherheitsrisiken in Microsoft 365 Copilot Interaktionen
Überprüfen Sie in DSSM für KI> im Abschnitt Erste Schritte, ob die Überwachung für Ihren Mandanten aktiviert ist. Wenn nicht, wählen Sie Microsoft Purview Audit aktivieren aus.
Wählen Sie im Abschnitt Empfehlungen die Option Alle Empfehlungen anzeigen aus, um zur Seite Empfehlungen zu gelangen. Wenn die folgende Empfehlung den status Nicht gestartet enthält, wählen Sie sie aus, um eine 1-Klick-Richtlinie zu erstellen:
- Erkennen riskanter Interaktionen in KI-Apps: Mit dieser Empfehlung wird eine Richtlinie erstellt, um das Benutzerrisiko zu berechnen, indem riskante Eingabeaufforderungen und Antworten in Microsoft 365 Copilot, Agents und anderen generativen KI-Apps erkannt werden.
Warten Sie mindestens einen Tag auf Daten, und navigieren Sie dann zur Seite Berichte , um die Ergebnisse Ihrer Richtlinie anzuzeigen. Wählen Sie Copilot-Umgebungen & Agents aus, und zeigen Sie Informationen wie die folgenden an:
- Gesamtanzahl der Interaktionen im Zeitverlauf (Microsoft Copilot und Agents)
- Sensible Interaktionen pro KI-App
- Wichtigste unethische KI-Interaktionen
- Verweise auf vertraulichkeitsbeschriftungen in Microsoft 365 Copilot und Agents
- Schweregrad des Insider-Risikos
- Insider-Risikoschweregrad pro KI-App
- Potenziell riskante KI-Nutzung
Wählen Sie Details für die einzelnen Berichtsdiagramme anzeigen aus, um detaillierte Aktivitäten im Aktivitäts-Explorer anzuzeigen.
Wählen Sie in den Filtern die Kategorie KI-App der Copilot-Erfahrungen & Agents aus, und verwenden Sie dann die anderen Filter, wenn Sie die angezeigten Daten weiter verfeinern müssen. Führen Sie dann einen Drilldown zu jeder Aktivität durch, um Details anzuzeigen, die das Anzeigen der Eingabeaufforderungen und der Antwort umfassen, wenn Sie Mitglied der Rollengruppe Microsoft Purview Content Explorer Content Viewer sind. Weitere Informationen zu dieser Anforderung finden Sie unter Berechtigungen für Datensicherheitstatus-Management für KI.
Schützen vertraulicher Daten in Microsoft 365 Copilot Interaktionen
Führen Sie auf DSSM Seite für KI-Empfehlungen> unter Nicht gestartet Maßnahmen für die folgenden Empfehlungen aus:
Schützen Sie Ihre Daten mit Vertraulichkeitsbezeichnungen: Mit dieser Empfehlung können Standard-Vertraulichkeitsbezeichnungen und Vertraulichkeitsbezeichnungsrichtlinien erstellt werden. Wenn Sie vertraulichkeitsbezeichnungen und deren Richtlinien bereits konfiguriert haben, wird diese Konfiguration übersprungen.
Schützen von Elementen mit Vertraulichkeitsbezeichnungen vor Microsoft 365 Copilot- und Agentverarbeitung: Diese Empfehlung führt Sie durch den Prozess der Erstellung einer Purview-Richtlinie zur Verhinderung von Datenverlust (Data Loss Prevention, DLP) zum Einschränken von Copilot-Verarbeitungsinhalten mit bestimmten Vertraulichkeitsbezeichnungen.
Schützen vertraulicher Daten, auf die in Copilot- und Agent-Antworten verwiesen wird: Diese Empfehlung führt Sie zu Datenrisikobewertungen , um potenzielle Überteilungsrisiken zu identifizieren, einschließlich Dateien ohne Vertraulichkeitsbezeichnung, die zusätzlichen Schutz bietet.
Warten Sie mindestens einen Tag, und navigieren Sie dann zur Seite Berichte , um die Ergebnisse Ihrer Richtlinien anzuzeigen, und zur Seite Datenrisikobewertungen , um die Ergebnisse Ihrer Bewertung anzuzeigen.
Navigieren Sie im Microsoft Purview-Portal zu Datensicherheitstatus-Management, und verwenden Sie Security Copilot, um Ihren Datensicherheitsstatus zu verbessern. Weitere Informationen zu dieser Lösung finden Sie unter Informationen zu Datensicherheitstatus-Management.
Anwenden von Konformitätssteuerelementen auf Microsoft 365 Copilot Interaktionen
Suchen Sie auf DSSM Seite für KI-Empfehlungen> nach der folgenden Empfehlung, und ergreifen Sie entsprechende Maßnahmen, sofern noch nicht geschehen:
- Erkennen von unethischem Verhalten in KI: Mit dieser Empfehlung wird eine Richtlinie erstellt, um vertrauliche Informationen in Eingabeaufforderungen und Antworten in Microsoft 365 Copilot, Agents und anderen generativen KI-Apps zu erkennen.
Wenn Sie sicherstellen müssen, dass Microsoft 365 Copilot Interaktionen aus Konformitätsgründen beibehalten werden:
Navigieren Sie im Microsoft Purview-Portal zuAufbewahrungsrichtlinien für die Datenlebenszyklusverwaltung>>, und erstellen Sie eine Aufbewahrungsrichtlinie, um Microsoft 365 Copilot Interaktionen beizubehalten, indem Sie den Speicherort Microsoft Copilot Erfahrungen auswählen und den erforderlichen Aufbewahrungszeitraum angeben. Weitere Informationen finden Sie unter Erstellen und Konfigurieren von Aufbewahrungsrichtlinien.
Wenn Sie die genaue Version der Dateien beibehalten müssen, auf die in Microsoft 365 Copilot Interaktionen verwiesen wird:
Navigieren Sie im Microsoft Purview-Portal zu Data Lifecycle Management>Aufbewahrungsbezeichnungen> , und suchen Oder erstellen Sie eine Aufbewahrungsbezeichnung mit dem erforderlichen Aufbewahrungszeitraum. Navigieren Sie dann zu Bezeichnungsrichtlinien, um diese Bezeichnung automatisch anzuwenden, und wählen Sie die Option Bezeichnung auf Cloudanlagen und in Exchange, Teams, Viva Engage und Copilot freigegebene Links anwenden aus. Weitere Informationen finden Sie unter Automatisches Anwenden einer Aufbewahrungsbezeichnung zum Aufbewahren oder Löschen von Inhalten.
Überprüfen Sie routinemäßig die Berichte und Datenrisikobewertungen in DSSM für KI, um festzustellen, ob Sie Änderungen vornehmen müssen, und verwenden Sie den Aktivitäts-Explorer und Ereignisse für eine eingehendere Analyse der Interaktion von Benutzern mit Microsoft 365 Copilot & Microsoft 365 Copilot Chat.
Weitere Dokumentationen, die Ihnen helfen, generative KI-Apps zu schützen und zu verwalten
Ausführlichere Informationen finden Sie unter Überlegungen zum Verwalten Microsoft 365 Copilot für Sicherheit und Compliance.
Microsoft 365 Copilot Dokumentation: