Freigeben über


Microsoft Copilot für Sicherheit – Häufig gestellte Fragen

Allgemeine Informationen

Was ist Microsoft Copilot für Security?

Microsoft Copilot for Security ist ein KI-Cybersicherheitsprodukt, mit dem Sicherheitsexperten schnell auf Bedrohungen reagieren, Signale mit Maschinengeschwindigkeit verarbeiten und die Risikogefährdung in Minuten bewerten können. 

Wie unterscheidet sich Microsoft Copilot für Security von anderen KI-Sicherheitsprodukten?

Copilot for Security kombiniert erweiterte GPT4-Modelle von OpenAI mit allem, was Microsoft auf den Tisch bringt, einschließlich Hyperscale-Infrastruktur, cyberspezifischer Orchestrierung, dem einzigartigen Fachwissen von Microsoft Security, globalen Threat Intelligence und umfassenden Sicherheitsprodukten.

Dies ist derzeit die einzige Sicherheits-KI-Lösung, die auf der einzigartigen Beziehung von Microsoft zu OpenAI basiert und Kunden Zugriff auf die neuesten und fortschrittlichsten großen Sprachmodelle (LLMs) und die Hyperscale-KI-Infrastruktur von Microsoft bietet.

Microsoft ist in der einzigartigen Lage, die Sicherheit für unsere Kunden zu transformieren, nicht nur aufgrund unserer Investitionen in KI, sondern auch, weil wir End-to-End-Sicherheit, Identität, Compliance und vieles mehr im gesamten Portfolio bieten. Wir sind optimiert, um mehr Bedrohungsvektoren abzudecken und einen Mehrwert mit einer koordinierten Erfahrung zu bieten.

Welche Anwendungsfälle und Funktionen bietet Copilot for Security für Kunden?

Bei den Hero-Anwendungsfällen handelt es sich um SOC-Szenarien, insbesondere um Die Zusammenfassung von Vorfällen, die Auswirkungsanalyse, das Reverse Engineering von Skripts und geführte Antworten.

Funktioniert Microsoft Copilot für Sicherheit mit anderen Microsoft-Produkten?

Ja. Copilot for Security arbeitet mit anderen Microsoft-Sicherheitsprodukten zusammen. Diese Produkte umfassen, sind aber nicht beschränkt auf:

  • Microsoft Defender XDR,
  • Microsoft Sentinel,
  • Microsoft Intune,
  • Microsoft Defender Threat Intelligence,
  • Microsoft Purview
  • Microsoft Defender Verwaltung der Angriffsfläche

Copilot for Security kann auf Daten aus diesen Produkten zugreifen und eine unterstützende Copilot-Erfahrung bereitstellen, um die Effektivität und Effizienz von Sicherheitsexperten zu erhöhen, die diese Lösungen verwenden. Funktionen wie die Skriptanalyse ermöglichen es Kunden beispielsweise, Hunderte von Codezeilen zu analysieren und diese in natürlicher Sprache in Minuten zu interpretieren. Diese Funktion übertrifft sogar fortgeschrittene Analystenkenntnisse in Bezug auf Geschwindigkeit und Fachwissen drastisch. Copilot for Security hilft Sicherheitsexperten, Risiken früher zu erkennen, mit besserer Anleitung darauf zu reagieren und sicherheitsrelevante Sicherheitsrisiken in der sich entwickelnden Bedrohungslandschaft zu berücksichtigen.

Wie macht Copilot for Security Microsoft Defender XDR und Microsoft Sentinel besser?

Microsoft Defender XDR und Microsoft Sentinel noch leistungsfähiger, wenn Sicherheitsexperten Copilot for Security verwenden. Copilot for Security bietet eine Erfahrung, die sicherheitsrelevante Daten, Signale sowie vorhandene Vorfälle und Erkenntnisse aus Microsoft Defender XDR und Microsoft Sentinel anreichert und darauf aufbaut. Die neue, eingebettete Benutzeroberfläche in Microsoft Defender XDR unterstützt Sicherheitsteams mit generativen KI-Funktionen, um ihre Effizienz für die folgenden leistungsstarken Anwendungsfälle auf eine neue Ebene zu heben:

  • Reagieren Sie auf Bedrohungen mit der Geschwindigkeit von KI mit unterstützter Untersuchung und Reaktion auf Vorfälle. Mit der eingebetteten Benutzeroberfläche in Defender bietet Copilot for Security Zusammenfassungen für aktive Vorfälle und umsetzbare Schritt-für-Schritt-Anleitungen für die Reaktion auf Vorfälle, die eine vollständige Post-Response-Aktivität in Sekundenschnelle und auf Knopfdruck erstellen.

  • Skalieren Sie erweiterte Aufgaben auf alle Qualifikationsebenen. Copilot for Security ermöglicht es Verteidigern auf allen Qualifikationsebenen, Bedrohungen und Sicherheitsrisiken über mehrere Bedrohungsvektoren hinweg mühelos zu erkennen. Die Lösung begründet Sicherheitsdaten in Echtzeit und bietet eine barrierefreie Möglichkeit, erweiterte Aufgaben in natürlicher Sprache auszuführen.

  • Führen Sie die Analyse von schädlichem Code in Echtzeit durch. Bisher waren Malware-Analyse und Reverse-Engineering auf fortgeschrittene Responder beschränkt. Mit Copilot for Security können Kunden komplexe Befehlszeilenskripts analysieren und in leicht verständliche natürliche Sprache übersetzen, um Analysten dabei zu helfen, Aktionen und Beweggründe von Angreifern zu verstehen.

  • Wenden Sie Threat Intelligence problemlos auf Ihre Untersuchungsworkflows an. Mit Copilot for Security können Benutzer strukturierte und kontextbezogene Einblicke in neue Bedrohungen, Angriffstechniken und darüber gewinnen, ob ein organization einer bestimmten Bedrohung ausgesetzt ist. Copilot for Security trägt dazu bei, die Gefährdung durch Aktivitätsgruppenkampagnen zu verhindern und mit mehr Anleitung auf Vorfälle zu reagieren.

Ersetzt Copilot for Security Microsoft Defender XDR und Microsoft Sentinel?

Nein, Copilot for Security ersetzt Microsoft Defender XDR oder Microsoft Sentinel nicht. Copilot for Security unterstützt Sicherheitsexperten bei ihrer täglichen Arbeit und bietet eine Weiterbildungserfahrung und erhöhte Effizienz. Es erhöht den Wert gegenüber Microsoft Defender XDR und Microsoft Sentinel.

Umfasst Copilot for Security den Zugriff auf Microsoft Defender Threat Intelligence (Defender TI)?

Ja*. Wenn Sie dazu aufgefordert werden, gibt Copilot aus Sicherheitsgründen für alle Inhalte und Daten in Microsoft Defender Threat Intelligence (Defender TI) einen wichtigen Kontext zu Aktivitätsgruppen, Tools und Sicherheitsrisiken zurück. Kunden haben auch Zugriff auf Defender TI Premium Workbench auf Mandantenebene, sodass sie auf die gesamte Bandbreite an Informationen von Defender TI zugreifen können – Intel-Profile, Bedrohungsanalyse, Internetdatensätze und mehr –, um einen tieferen Einblick in die in Copilot for Security verfügbaren Inhalte zu erhalten.

*Dieser Zugriff umfasst nicht die Defender TI-API, die separat lizenziert bleibt.

Wann ist Copilot for Security allgemein verfügbar?

Copilot for Security ist ab dem 1. April 2024 allgemein erhältlich.

Wer sind die beabsichtigten Benutzer von Copilot for Security?

SOC-Analysten, Complianceanalysten und IT-Administratoren sind die vorgesehenen Benutzer von Copilot for Security.

Welche Sprachen werden unterstützt?

Copilot for Security unterstützt mehrere Sprachen. Das Modell ist in acht Sprachen* verfügbar, und die Benutzeroberfläche ist in 25 Sprachen verfügbar.**

*Modell: Englisch, Deutsch, Japanisch, Spanisch, Französisch, Italienisch, Portugiesisch und Chinesisch

**UX: Oben sprachen plus Koreanisch, Niederländisch, Schwedisch, Polnisch, Norwegisch, Türkisch, Dänisch, Finnisch und mehr in der Benutzeroberfläche.

Weitere Informationen finden Sie unter Unterstützte Sprachen.

Erhalten EAP-Kunden (Early Access Program) am 1. April allgemeine Verfügbarkeitsfeatures und alle anderen Features, die vor Ablauf ihrer EAP-Vereinbarung hinzugefügt werden?

Ja, EAP-Kunden erhalten die Features, die im GA-Produkt enthalten sind, und alle anderen Featureupdates, die während ihrer EAP-Vertragszeit auftreten.

Was geschieht mit Kunden, die am Early Access Program bei GA teilnehmen?

Der Kundenzugriff im Rahmen des Early Access-Programms endet sechs Monate nach dem Kaufdatum. Während dieses Zeitraums gelten die Vertragsbedingungen für die Nutzung und Nutzung des Produkts durch kunden im Rahmen des Early Access-Programms. Nach dieser Zeit und nach der allgemeinen Verfügbarkeit steht Copilot of Security unter den Standardvertragskanälen von Microsoft zum Kauf und Verbrauch zur Verfügung. Ein Migrationsplan ist vorhanden, um die Kunden bei der Migration von EAP zu GA zu unterstützen, um sicherzustellen, dass alle ihre Informationen auf das allgemein verfügbare Produkt übertragen werden.

Wenn sich ein EAP-Kunde entscheidet, das allgemein verfügbare Produkt innerhalb von 90 Tagen nach Ablauf des EAP zu kaufen, bleiben Kundendaten verfügbar.

Wenn ein EAP-Kunde entscheidet, das GA-Produkt nicht innerhalb von 90 Tagen nach Ablauf von EAP zu kaufen, werden seine EAP-Kundendaten gemäß unseren Datenaufbewahrungsrichtlinien gelöscht.

Werden Kundendaten zum Trainieren von Azure OpenAI Service-Basismodellen verwendet?

Nein, Kundendaten werden nicht zum Trainieren von Azure OpenAI Service-Basismodellen verwendet, und diese Verpflichtung ist in unseren Produktbedingungen dokumentiert. Weitere Informationen zur Datenfreigabe im Kontext von Copilot for Security finden Sie unter Datenschutz und Datensicherheit.

Was ist der DSGVO-Leitfaden für EU-Märkte?

Microsoft hält alle Gesetze und Vorschriften ein, die für die Bereitstellung von Produkten und Diensten gelten, einschließlich des Benachrichtigungsrechts für Sicherheitsverletzungen und der Datenschutzanforderungen (wie im Microsoft DPA definiert). Microsoft ist jedoch nicht für die Einhaltung von Gesetzen oder Vorschriften verantwortlich, die für Kunden oder die Branche des Kunden gelten und die nicht allgemein für It-Dienstanbieter gelten. Microsoft bestimmt nicht, ob die Daten des Kunden Informationen enthalten, die bestimmten Gesetzen oder Vorschriften unterliegen. Weitere Informationen finden Sie unter Microsoft Products and Services Data Protection Addendum (DPA).

Sind GCC-Kunden (US Government Cloud) berechtigt?

GCC ist in der allgemeinen Verfügbarkeit nicht verfügbar. Derzeit ist Copilot for Security nicht für die Kundennutzung mit Us-Government-Clouds konzipiert, einschließlich, aber nicht beschränkt auf GCC, GCC High, DoD und Microsoft Azure Government. Während der technische Pfad für Microsoft Sentinel Connector funktioniert, kann der Mandant nicht auf 75 % der Produktfeatures zugreifen, da die Defender-Schnittstellen und -Daten in Microsoft Azure Government vorhanden sind, in die Copilot nicht integriert ist.

Sind Gesundheitskunden in den USA und Kanada berechtigt?

HLS-Kunden in den USA und Kanada sind berechtigt, Copilot for Security zu erwerben. Microsoft Copilot für Sicherheit ist jetzt aufgeführt und durch die Geschäftspartnervereinbarung ("BAA") abgedeckt, die für Gesundheitsdienstleister wichtig ist, die den Bestimmungen gemäß HIPAA unterliegen. Weitere Informationen zu Complianceangeboten, die derzeit für Microsoft Copilot für Sicherheit abgedeckt sind, finden Sie im Service Trust Portal.

Gewusst wie Daten aus Copilot for Security exportieren oder löschen?

Sie müssen sich an den Support wenden. Weitere Informationen finden Sie unter Kontaktieren des Supports.

Was ist der Unterschied zwischen ChatGPT und Copilot for Security?

ChatGPT und Copilot for Security sind ki-Technologien (Künstliche Intelligenz), die mit dem Ziel entwickelt wurden, Benutzern zu helfen, Aufgaben und Aktivitäten schneller und effizienter zu erledigen. Obwohl sie ähnlich erscheinen mögen, gibt es erhebliche Unterschiede zwischen den beiden.

ChatGPT ist eine Natürliche Sprachverarbeitungstechnologie. ChatGPT verwendet Maschinelles Lernen, Deep Learning, Verstehen natürlicher Sprache und Generierung natürlicher Sprache, um Fragen zu beantworten oder auf Unterhaltungen zu antworten. ChatGPT arbeitet mit Daten, die aus dem Internet trainiert wurden, verwendet Eingabeaufforderungen von Benutzern, um prompte Engineering und Modellanpassungen zu unterstützen, und ist auf drei gleichzeitige Plug-Ins beschränkt.

Copilot for Security ist ein KI-gestütztes Sicherheitsanalysetool in natürlicher Sprache, das Organisationen dabei hilft, sich mit Maschinengeschwindigkeit und Skalierung vor Bedrohungen zu schützen. Copilot for Security basiert auf Der OpenAI-Technologie und wurde von Grund auf als Cyber-KI für Unternehmen konzipiert und entwickelt. Die Plattform arbeitet mit kundenverbundenen Plug-Ins und der globalen Threat Intelligence von Microsoft als Basisdaten. Eingegebene Eingabeaufforderungen informieren das Modell oder die Eingabeaufforderung nicht über das Engineering, es sei denn, sie werden vom Kunden zur Überprüfung übermittelt.

Ein wichtiger Unterschied zwischen ChatGPT und Copilot for Security ist das, wofür die Systeme konzipiert sind. Microsoft Copilot for Security ist für die Statusverwaltung, die Reaktion auf Vorfälle und die Berichterstellung konzipiert. Die Lösung bezieht Erkenntnisse aus Sicherheitssignalen, die von Plug-Ins aggregiert werden, während ChatGPT wie ein Chatbot funktioniert, der eine Unterhaltung mit einem Benutzer führen soll.

Copilot for Security hat Zugriff auf aktuelle Informationen von Threat Intelligence und bezieht Erkenntnisse aus Plug-Ins, damit Sicherheitsexperten besser gegen Bedrohungen gerüstet sind. Microsoft Copilot für Sicherheit nicht immer alles richtig macht, und wie bei allen KI-Tools können Antworten Fehler enthalten. Der integrierte Feedbackmechanismus bietet Benutzern die Kontrolle über die Verbesserung des Systems.

Kaufinformationen

Wie können Kunden bei GA kaufen?

Copilot for Security ist über alle Kanäle verfügbar: EA, MCA-E, CSP, Online kaufen und Legacy-Web Direct.

Gibt es Voraussetzungen für den Kauf?

Ein Azure-Abonnement und Microsoft Entra ID (früher als Azure Active Directory bezeichnet) sind Voraussetzungen für die Verwendung von Copilot for Security. Es gibt keine weiteren Produktvoraussetzungen. Weitere Informationen finden Sie unter Erste Schritte mit Copilot for Security.

Technische und Produktfragen

Erhalten Kunden Onboarding-Support?

Beim Kauf erhalten Kunden einfachen Zugriff auf Dokumentationen, Videos und Blogs.

Wo finde ich weitere Informationen zu Datenschutz und Datenschutz?

Weitere Informationen finden Sie im Microsoft Trust Center.

Was sind die Complianceangebote für Microsoft Copilot für Sicherheit?

Microsoft Copilot für Sicherheit hat eine Konformitätszertifizierung erreicht, einschließlich ISO27001, 27018, 27017, 27701, 20000-1, 9000-1 und 22301. Darüber hinaus ist Microsoft Copilot for Security jetzt aufgeführt und durch die Geschäftspartnervereinbarung ("BAA") abgedeckt, die für Gesundheitsdienstleister wichtig ist, die den HipAA-Vorschriften unterliegen. Weitere Informationen zu Complianceangeboten, die derzeit für Microsoft Copilot für Sicherheit abgedeckt sind, finden Sie im Service Trust Portal.

Weitere Informationen finden Sie unter Service Trust Portal.

Ist die Bereitstellung Microsoft Entra ID (früher als Azure Active Directory bezeichnet) eine Voraussetzung für Copilot for Security?

Ja. Copilot for Security ist eine SaaS-Anwendung und erfordert, dass AAD die Benutzer authentifiziert, die Zugriff haben.

Deckt Die Integration von Defender für XDR und Sentinel gespeicherte Daten oder nur Warnungen und Vorfälle (wichtige Ereignisse) ab?

Copilot for Security deckt sowohl Warnungen/Vorfälle als auch gespeicherte Daten ab. Das Produkt ruft Daten aus erweiterten Huntingtabellen in Defender für XDR und top-Datentabellen in Microsoft Sentinel ab.

Unterstützt Copilot for Security Mandanten- oder Abonnementübertragungen?

Nein, copilot for Security unterstützt derzeit nicht das Verschieben von Copilot for Security-Ressourcen über Microsoft Entra Mandanten oder Abonnementübertragungen hinweg.

Welche Partnertools sind in Copilot for Security integriert?

Kunden können von ISV entwickelte Plug-Ins von Drittanbietern wie Cyware, Netskope SGNL, Tanium und Valence Security in Public Preview-Kapazität verwenden. Von Microsoft entwickelte Plug-Ins wie CIRC.lu, CrowdSec, Greynoise und URLScan sind ebenfalls verfügbar. Weitere Plug-Ins werden in Zukunft hinzugefügt.

Hinweis

Produkte, die in Copilot for Security integriert sind, müssen separat erworben werden.

Kann Copilot for Security Computer mithilfe von Microsoft Defender for Endpoint und Microsoft Intune isolieren? Können Sie einzelne IOCs anpassen und/oder blockieren?

Copilot for Security kann keine Computer isolieren. Es kann Sicherheitsadministratoren empfehlungen geben, dass sie bestimmte Computer isolieren sollten, aber Copilot for Security führt diese Aktion nicht selbst aus. Sie können mit Copilot for Security auswerten, ob einzelne IOCs in der Umgebung vorhanden sind. Copilot for Security blockiert sie jedoch nicht automatisch. Die Automatisierung kommt möglicherweise zu einem späteren Zeitpunkt, aber copilot for Security ergreift vorerst keine eigenständigen Korrekturmaßnahmen.

Ist Copilot for Security IPv6-fähig?

Es gibt eine Funktion namens Abrufen von Webkomponenten nach IP-Adresse, die derzeit IPV4 unterstützt.

Gibt Copilot for Security Empfehlungen für IoT/OT-Szenarien?

Nein, Copilot for Security unterstützt ioT/OT derzeit nicht.

Bietet Copilot for Security Dashboarding an, oder können Sie nur einzelne Ereignisse untersuchen?

Copilot for Security bietet keine Dashboarderstellung, Sie können jedoch mehrere Incidents in Microsoft Sentinel abfragen. Für die Baseline kann sie eine Visualisierung eines Angriffspfads bereitstellen.

Kann Copilot for Security Workflows ausführen – von der Selektierung über die Verwendung angehefteter Nachrichten bis hin zur Regelung, wie der Kunde den Incident bezeichnen und ob ein Incident geschlossen werden soll?

Nein, Workflows werden in Copilot for Security derzeit nicht unterstützt.

Welche rollenbasierten Zugriffssteuerungs- oder Delegierungsfunktionen bietet Copilot for Security? Wie werden benutzerberechtigungen, die in Copilot for Security beibehalten werden, an Benutzerberechtigungskonfigurationen in anderen Lösungen ausgerichtet?

Copilot for Security verwendet AOBO-Rechte (Administrator im Namen von) für den angemeldeten Benutzer. Weitere Informationen finden Sie unter Grundlegendes zur Authentifizierung.

Warum überträgt Microsoft Copilot Daten an einen Microsoft-Mandanten?

Microsoft Copilot ist ein SaaS-Angebot (Software-as-a-Service), das im Azure-Produktionsmandanten ausgeführt wird. Benutzer geben Eingabeaufforderungen ein, und Copilot for Security stellt Antworten basierend auf den Erkenntnissen bereit, die von anderen Produkten wie Microsoft Defender XDR, Microsoft Sentinel und Microsoft Intune stammen. Copilot for Security speichert frühere Eingabeaufforderungen und Antworten für einen Benutzer. Der Benutzer kann die Produktumgebung verwenden, um auf Eingabeaufforderungen und Antworten zuzugreifen. Daten von einem Kunden werden logisch von den Daten anderer Kunden isoliert. Diese Daten verlassen den Azure-Produktionsmandanten nicht und werden gespeichert, bis Kunden sie löschen oder aus dem Produkt offboarden möchten.

Wie werden die übertragenen Daten während der Übertragung und im Ruhezustand gesichert?

Die Daten werden sowohl während der Übertragung als auch im Ruhezustand verschlüsselt, wie im Nachtrag zum Datenschutz von Microsoft-Produkten und -Diensten beschrieben.

Wie sind die übertragenen Daten vor unbefugtem Zugriff geschützt, und welche Tests wurden für dieses Szenario durchgeführt?

Standardmäßig haben keine menschlichen Benutzer Zugriff auf die Datenbank, und der Netzwerkzugriff ist auf das private Netzwerk beschränkt, in dem die Microsoft Copilot Anwendung bereitgestellt wird. Wenn ein Mensch Zugriff benötigt, um auf einen Vorfall zu reagieren, benötigt der Bereitschaftsdienst einen erhöhten Zugriff und Netzwerkzugriff, der von autorisierten Microsoft-Mitarbeitern genehmigt wird.

Neben regelmäßigen Featuretests hat Microsoft auch Penetrationstests durchgeführt. Microsoft Copilot für Sicherheit erfüllt alle Datenschutz-, Sicherheits- und Complianceanforderungen von Microsoft.

Was geschieht in "Meine Sitzungen", wenn eine einzelne Sitzung gelöscht wird, mit den Sitzungsdaten?

Sitzungsdaten werden für Laufzeitzwecke (zum Betreiben des Diensts) sowie in Protokollen gespeichert. Wenn in der Laufzeitdatenbank eine Sitzung über die produktinterne Benutzeroberfläche gelöscht wird, werden alle dieser Sitzung zugeordneten Daten als gelöscht markiert, und die Gültigkeitsdauer (Time to Live, TTL) wird auf 30 Tage festgelegt. Nach Ablauf dieser Gültigkeitsdauer können Abfragen nicht mehr auf diese Daten zugreifen. Ein Hintergrundprozess löscht die Daten nach diesem Zeitpunkt physisch. Zusätzlich zur "live"-Laufzeitdatenbank gibt es regelmäßige Datenbanksicherungen. Die Sicherungen werden veraltet – diese haben kurze Aufbewahrungszeiträume (derzeit auf vier Tage festgelegt).

Protokolle, die Sitzungsdaten enthalten, sind nicht betroffen, wenn eine Sitzung über die produktinterne Benutzeroberfläche gelöscht wird. Diese Protokolle haben einen Aufbewahrungszeitraum von bis zu 90 Tagen.

Welche Produktbedingungen gelten für Copilot for Security? Ist Copilot for Security ein "Microsoft Generative KI-Dienst" im Sinne der Produktbedingungen von Microsoft?

Die folgenden Produktbedingungen gelten für Copilot for Security-Kunden:

  • Universal License Terms for Online Services terms in the Product Terms, which include the Microsoft Generative AI Services terms and the Customer Copyright Commitment.

  • Datenschutz & Sicherheitsbestimmungen in den Microsoft-Produktbedingungen, die den Datenschutz-Nachtrag enthalten.

Copilot for Security ist ein generativer KI-Dienst innerhalb der Definition der Produktbedingungen. Darüber hinaus ist Copilot for Security ein "abgedecktes Produkt" im Sinne der Urheberrechtsverpflichtung des Kunden. Derzeit gibt es in den Produktbedingungen keine produktspezifischen Begriffe, die für Copilot for Security gelten.

Zusätzlich zu den Produktbedingungen regeln beispielsweise die MBSA/EA- und MCA-Vereinbarungen des Kunden die Beziehung der Parteien. Wenn ein Kunde bestimmte Fragen zu seinen Vereinbarungen mit Microsoft hat, wenden Sie sich an den CE, den Deal-Manager oder den lokalen CELA, der den Deal unterstützt.

Die Microsoft-Verpflichtung zum Urheberrecht ist eine neue Verpflichtung, die die bestehende Unterstützung von Microsoft für geistiges Eigentum auf bestimmte kommerzielle Copilot-Dienste ausweitet. Die Verpflichtung zum Urheberrecht des Kunden gilt für Copilot for Security. Wenn ein Dritter einen kommerziellen Kunden wegen Urheberrechtsverletzung für die Verwendung von Copilots von Microsoft oder der von ihnen generierten Ausgabe verklagt, wird Microsoft den Kunden verteidigen und den Betrag für alle nachteiligen Urteile oder Vergleiche bezahlen, die sich aus der Klage ergeben, vorausgesetzt, dass der Kunde die in unseren Produkten integrierten Schutzmaßnahmen und Inhaltsfilter verwendet hat.

Können Copilot for Security-Kunden die Überwachung von Missbrauch des Azure OpenAI-Diensts deaktivieren? Führt Copilot for Security eine Inhaltsfilterung oder Missbrauchsüberwachung durch?

Die Azure OpenAI-Missbrauchsüberwachung ist derzeit dienstweit für alle Kunden deaktiviert.

Übernimmt Copilot for Security Verpflichtungen zur Datenverarbeitung oder Datenresidenz?

  1. Ort der Datenverarbeitung: Copilot for Security macht derzeit keine vertraglichen Datenverarbeitungsverpflichtungen. Gemäß den Produktbedingungen und durch die Verwendung eines Microsoft Generative KI-Diensts erklären sich Copilot for Security-Kunden damit einverstanden, dass ihre Daten außerhalb der geografischen Region des Mandanten verarbeitet werden können. Kundenadministratoren können jedoch den Speicherort für die Eingabeaufforderungsauswertung auswählen. Während Microsoft empfiehlt, die Eingabeaufforderungsauswertung überall mit verfügbarer GPU-Kapazität zuzulassen, um optimale Ergebnisse zu erzielen, können Kunden aus vier Regionen auswählen, um ihre Eingabeaufforderungen ausschließlich in diesen Regionen auszuwerten.

    Derzeit verfügbare Regionen für die Eingabeaufforderungsauswertung:

    • Australien (ANZ)
    • Europa (EU)
    • Vereinigtes Königreich (UK)
    • USA (USA).
  2. Speicherort der Datenspeicherung (Datenresidenz): Derzeit schließt Copilot for Security keine vertraglichen Datenspeicherungs-/Residency-Verpflichtungen ein. Wenn ein Kunde nicht für die Datenfreigabe* angemeldet ist, speichert Copilot for Security ruhende Daten im Geografischen Standort des Mandanten.

    Für einen Kundenmandanten, dessen Wohnsitz sich in Deutschland befindet, speichert Copilot for Security Beispielsweise Kundendaten in "Europa" als bezeichneten geografischen Standort für Deutschland.

    *Wenn sich ein Kunde für die Datenfreigabe entscheidet, werden Kundendaten wie Aufforderungen und Antworten an Microsoft weitergegeben, um die Produktleistung zu verbessern, die Genauigkeit zu verbessern und die Antwortlatenz zu beheben. Wenn dieses Ereignis eintritt, können Kundendaten wie Eingabeaufforderungen außerhalb des geografischen Mandanten gespeichert werden.

Ist Copilot for Security ein Microsoft EU-Datenbegrenzungsdienst?

Zum Zeitpunkt der allgemeinen Verfügbarkeit sind alle Microsoft-Sicherheitsdienste nicht für die Eu-Datenresidenzanforderungen geeignet, und Copilot for Security wird nicht als EUDB-Dienst aufgeführt.

Wo werden EU-Kundendaten gespeichert?

Copilot for Security speichert Kundendaten und personenbezogene Daten wie Benutzeraufforderungen und Microsoft Entra Objekt-IDs im Geografischen Raum des Mandanten. Wenn ein Kunde seinen Mandanten in der EU bereitstellt und sich nicht für die Datenfreigabe entschieden hat, werden alle Kundendaten und pseudonymisierten personenbezogenen Daten im Ruhezustand innerhalb der EU gespeichert. Die Verarbeitung von Kundendaten und Aufforderungen zu personenbezogenen Daten kann im angegebenen Sicherheits-GPU-Geo erfolgen. Weitere Informationen zur Geografischen Auswahl von Sicherheits-GPU finden Sie unter Erste Schritte mit Copilot for Security. Wenn sich ein Kunde für die Datenfreigabe entschieden hat, können Aufforderungen außerhalb der EU-Datengrenze gespeichert werden. Weitere Informationen zur Datenfreigabe finden Sie unter Datenschutz und Datensicherheit in Microsoft Copilot for Security.

Gelten Kundenaufforderungen (z. B. Eingabeinhalte des Kunden) als Kundendaten innerhalb der Bestimmungen der DPA und der Produktbedingungen?

Ja, Kundenaufforderungen gelten als Kundendaten. Unter den Produktbedingungen werden Kundenaufforderungen als Eingaben betrachtet. Eingaben sind definiert als "alle Kundendaten, die der Kunde zur Verwendung durch eine generative Künstliche Intelligenz-Technologie zum Generieren oder Anpassen einer Ausgabe bereitstellt, bestimmt, auswählt oder eingibt".

Gelten "Ausgabeinhalte" als Kundendaten innerhalb der Bestimmungen der DPA und der Produktbedingungen?

Ja, Ausgabeinhalte sind Kundendaten gemäß den Produktbedingungen.

Gibt es einen Transparenzhinweis oder eine Transparenzdokumentation für Copilot for Security?

Ja, das Dokument zur Transparenz verantwortungsvoller KI finden Sie hier: Häufig gestellte Fragen zur verantwortungsvollen KI.

Wie geht Copilot for Security mit einem "Tokenlimit" um?

Große Sprachmodelle (LLMs), einschließlich GPT, haben Beschränkungen hinsichtlich der Menge an Informationen, die sie gleichzeitig verarbeiten können. Dieser Grenzwert wird als "Tokenlimit" bezeichnet und entspricht ungefähr 1,2 Wörtern pro Token. Copilot for Security verwendet die neuesten GPT-Modelle von Azure OpenAI, um sicherzustellen, dass wir so viele Informationen wie möglich in einer einzigen Sitzung verarbeiten können. In einigen Fällen können große Eingabeaufforderungen, lange Sitzungen oder ausführliche Plug-In-Ausgaben den Tokenspeicherplatz überlaufen. In diesem Fall versucht Copilot for Security, Risikominderungen anzuwenden, um sicherzustellen, dass eine Ausgabe immer verfügbar ist, auch wenn der Inhalt in dieser Ausgabe nicht optimal ist. Diese Entschärfungen sind nicht immer wirksam, und es kann erforderlich sein, die Verarbeitung der Anforderung zu beenden und den Benutzer anzuweisen, eine andere Eingabeaufforderung oder ein anderes Plug-In zu versuchen.

Der Verhaltenskodex des Azure OpenAI-Diensts enthält "Anforderungen an die verantwortungsvolle KI-Entschärfung". Wie gelten diese Anforderungen für Copilot for Security-Kunden?

Diese Anforderungen gelten nicht für Copilot for Security-Kunden, da Copilot for Security diese Entschärfungen implementiert.

Partnerinformationen

Welche Anwendungsfälle gibt es für Partner?  

Partner können Signale bereitstellen oder ergänzende Lösungen rund um Copilot for Security-Szenarien erstellen.

Ich arbeite mit einem Managed Security Service Provider (MSSP) zusammen. Können sie Copilot for Security in meinem Namen verwenden und verwalten?

Ja, MSSPs, die SOC-Dienste für Kunden bereitstellen, können auf die Copilot for Security-Umgebung des Kunden zugreifen, wenn der Kunde den Zugriff gewähren möchte. (Bring Your Own MSSP)

Hinweis

Im eigenständigen Portal nur mit eingeschränkter Funktionalität verfügbar.

Das Onboarding und die Verwaltung des MSSPs-Zugriffs auf Ihren (Kunden-)Mandanten wird über Gastzugriff (B2B) und GDAP angeboten. Derzeit gibt es kein mehrinstanzenfähiges CSP- oder Reseller-Modell für MSSPs. Jeder Kunde ist dafür verantwortlich, seine eigenen SCUs zu erwerben und seine MSSPs mit dem erforderlichen Zugriff einzurichten.

Können MSSPs eine einzelne instance von Copilot for Security verwenden, um mehrere Mandanten zu verwalten?

Copilot for Security unterstützt keine Mandantenübergreifende Eingabeaufforderung. Stattdessen können MSSPs den Mandantenwechsel verwenden und einen Kundenmandanten mit unterstützten delegierten Zugriffsoptionen als Ziel verwenden.

MSSPs können mehrere Kundenmandanten in Copilot for Security verwalten, indem sie Mandantenwechsel von ihrem MSSP-Mandanten verwenden. Mandantenwechsel ermöglicht Es Partnern, zwischen Mandanten zu wechseln und jeweils einen Mandanten mit Eingabeaufforderungen/Abfragen zu sichern, indem sie den Kundenmandanten in einer Dropdownliste auswählen. Kunden können die Mandanten-ID (GUID) auch in der Copilot for Security-Sitzungs-URL als Abfragezeichenfolgenparameter hinzufügen. Kundenmandanten können basierend auf delegiertem Zugriff auf den Kundenmandanten ausgewählt werden. Copilot for Security wird im Benutzerkontext verwendet, sodass der Partner nur auf das zugreifen kann, was dem delegierten Konto im Kundenmandanten Zugriff gewährt wurde.

Gibt es derzeit Integrationen von Drittanbietern?

Wir arbeiten mit ISVs wie Cyware, Netskope, SGNL, Tanium und Valence Security zusammen, um ihre Plug-Ins in public Preview zu veröffentlichen und weitere Integrationen mit dem restlichen Partnerökosystem zu entwickeln.

Gibt es einen Marketplace für die Plug-Ins oder -Dienste? 

Es gibt keinen Plug-In-Marketplace unter GA. ISVs können ihre Lösungen auf GitHub veröffentlichen. Bei GA müssen alle Partner ihre Lösungen oder verwalteten Dienste im kommerziellen Marketplace von Microsoft veröffentlichen. Weitere Informationen zur Veröffentlichung im Marketplace finden Sie hier:

Veröffentlichen der Lösung im kommerziellen Microsoft Marketplace:

MSSP-spezifisch: Muss in Microsoft AI Cloud Partner Program über eine Sicherheitsbezeichnung verfügen.

SaaS-spezifisch:

Was ist mit MSSPs, die auch als Kunde an Copilot for Security EAP teilnehmen? 

MSSPs, die Teil von EAP sind, haben weiterhin Zugriff auf Copilot for Security, bis die EAP-6-monatige Vereinbarung endet. Wenn ein MSSP denselben Mandanten für interne und kundenseitig verwaltete SOC-Dienste verwendet, muss er einen Kapazitätsplan erwerben und sicherstellen, dass unterstützte delegierte Zugriffsmodelle über den verwalteten SOC-Mandanten aktiviert werden. Wenn ein MSSP einen Mandanten nur für kundenseitig verwaltete SOC-Dienste verwendet, die nicht für interne SOC-verwaltete Dienste verwendet werden, muss der Mandant für den MSSP manuell für Copilot for Security by Microsoft bereitgestellt werden. Daher ist für die Bereitstellung von Copilot for Security kein Kauf eines Kapazitätsplans erforderlich.

Was geschieht, wenn MSSPs keine Microsoft Defender XDR oder Microsoft Sentinel verwenden? 

Microsoft Copilot for Security hat keine spezifischen Microsoft-Sicherheitsproduktanforderungen für die Bereitstellung oder Verwendung, da die Lösung auf dem Aggregieren von Datenquellen sowohl von Microsoft als auch von Drittanbieterdiensten basiert. Vor diesem Grund ist es von großem Wert, Microsoft Defender XDR und Microsoft Sentinel als unterstützte Plug-Ins für die Anreicherung von Untersuchungen aktiviert zu haben. Copilot for Security verwendet nur Skills und greift auf Daten von aktivierten Plug-Ins zu.

Muss eine MSSPs SOC-Lösung in Azure gehostet werden? 

Es wird empfohlen, dass die Lösung in Azure gehostet wird, aber nicht erforderlich ist. 

Gibt es eine Produktroadmap, die für Partner freigegeben werden kann? 

Dies ist derzeit nicht möglich.