Delen via


AI-beveiliging voor Microsoft 365 Copilot

AI heeft een revolutie teweeggebracht in veel sectoren en biedt ongekende mogelijkheden en efficiëntie. Zo coördineert Microsoft 365 Copilot, ons productiviteitsprogramma op basis van AI, grote taalmodellen (LLMs), inhoud in Microsoft Graphs en de Productiviteits-apps van Microsoft 365, zoals Word, Excel, PowerPoint, Outlook, Teams, SharePoint en andere. Deze integratie biedt realtime intelligente hulp, zodat gebruikers hun creativiteit, productiviteit en vaardigheden kunnen verbeteren.

Klanten willen deze mogelijkheden graag verkennen en overwegen de belangrijke aspecten van beveiliging die daarbij komen kijken. Op basis van onze interacties met klanten die bezig zijn met hun AI-transformatietraject, begrijpen we dat onderwerpen zoals gegevensbeveiliging, privacy, robuustheid van modellen en cyberaanvallen bovenaan het hoofd staan.

Microsoft begrijpt hoe essentieel deze overwegingen zijn. Daarom gebruiken we een robuuste diepgaande beveiligingsstrategie om productiviteitshulpprogramma's zoals Microsoft 365 Copilot te beschermen tegen beveiligingsrisico's. Deze benadering met meerdere lagen omvat een combinatie van geavanceerde bedreigingsinformatie, strikte beveiligingsprocedures en proactieve beveiligingsmaatregelen. Naast onze eigen red-teaming-oefeningen om Microsoft 365 Copilot te testen, hebben we Casaba Security ingeschakeld om negen Copilot-implementaties in de Microsoft 365-productsuite te testen. We hebben de resultaten van hun tests onmiddellijk aangepakt en opgelost, die gericht waren op het identificeren van de top 10 van Open Worldwide Application Security Project (OWASP) voor LLM, evenals traditionele beveiligingsproblemen in de ondersteunende toepassingsinfrastructuur.

Microsoft neemt uitgebreide stappen om ervoor te zorgen dat Microsoft 365 Copilot voldoet aan onze bestaande privacy-, beveiligings- en nalevingsverplichtingen aan onze klanten. En naarmate AI-technologieën en gebruiksscenario's zich blijven ontwikkelen, is ons werk nooit gedaan: Microsoft streeft ernaar om de beveiliging van Copilot voortdurend te verbeteren, te leren van onze eigen bewaking en tests van onze systemen, en samen te werken met klanten, partners en de bredere beveiligingssector.

Dit artikel biedt een overzicht van de algehele beveiligingspostuur van Microsoft voor AI en hoe verschillende Microsoft-beveiligingsoplossingen samenwerken om uw gegevens en interacties in Microsoft 365 Copilot en andere AI-toepassingen te beveiligen. We zullen dit artikel bijwerken met nieuwe informatie over opkomende risico's en innovaties in oplossingen zodra deze beschikbaar komen.

Microsoft 365 Copilot beveiligen

Bij Microsoft is beveiliging niet alleen een prioriteit; het is de basis voor alles wat we doen. Deze toezegging breidt zich uit tot AI: niet alleen begeleidt Microsoft Office of Responsible AI veiligheid en beveiliging in ons AI-traject, ons onlangs uitgebreide Secure Future Initiative weerspiegelt verder onze toewijding om een veiliger digitaal landschap voor iedereen te creëren.

Onze uitgebreide beveiligingspostuur voor AI heeft de volgende pijlers:

  • Verantwoordelijke AI-ontwikkeling: Microsoft is voorstander van verantwoorde AI-principes. Deze principes benadrukken eerlijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiviteit, transparantie en verantwoordelijkheid gedurende de ai-levenscyclus.
  • Best practices voor beveiliging: We bieden op maat gemaakte resources en aanbevolen procedures voor ontwikkelaars, technici en beveiligingsprofessionals die werken met Microsoft AI-producten. Deze resources helpen organisaties bij het begrijpen en implementeren van beveiligingsmaatregelen tijdens de implementatie.
  • Levenscyclus van beveiligingsontwikkeling (SDL): onze strikte SDL integreert beveiligingsoverwegingen gedurende het hele AI-ontwikkelingsproces. Deze proactieve aanpak zorgt ervoor dat beveiligingsproblemen vanaf het begin worden geïdentificeerd en verzacht.
  • Bedreigingsonderzoek, detectie en risicobeperking: We investeren actief in strategieën om bedreigingen voor onze AI-modellen te detecteren en te beperken. Dit omvat doorlopende bewaking van beveiligingsproblemen en het ontwikkelen van tegenmaatregelen tegen potentiële aanvallen. Microsoft Threat Intelligence, ons wereldwijde netwerk van onderzoekers, bewaakt ook het bedreigingslandschap voor bedreigingsactoren en cyberaanvallen die kunnen profiteren van AI-toepassingen.

Microsoft beschermt privacy, beveiliging en betrouwbaarheid voor de AI-functies van Microsoft 365 Copilot, van de invoerfase van de gebruiker tot en met de uitvoerfase van het systeem. Microsoft 365 Copilot voldoet aan onze bestaande privacy-, beveiligings- en nalevingsverplichtingen, waaronder de Algemene Verordening Gegevensbescherming (AVG) en de gegevensgrens van de Europese Unie (EU). In overeenstemming met deze toezeggingen verwerkt Microsoft de informatie in alle prompts die worden ingevoerd met Behulp van Copilot, en blijven de opgehaalde gegevens en gegenereerde antwoorden beveiligd als klantgegevens en onderhevig aan onze contractuele vereisten voor gegevensverwerking.

In de volgende secties wordt beschreven hoe Microsoft omgaat met verschillende aspecten van privacy, beveiliging en naleving die belangrijke overwegingen van klanten zijn voor het aannemen van Microsoft 365 Copilot.

Toegangsbeheer en machtigingenbeheer

Microsoft 365 Copilot toegang krijgt tot resources namens de gebruiker, zodat deze alleen toegang heeft tot resources waarvoor de gebruiker al gemachtigd is. Als de gebruiker bijvoorbeeld geen toegang heeft tot een document, heeft Microsoft 365 Copilot die namens de gebruiker werkt ook geen toegang.

De gegevens die worden gebruikt om reacties te genereren, worden door Microsoft verwerkt op basis van contractuele vereisten voor gegevensverwerking, waaronder versleutelde gegevensoverdracht, het beschermen van de privacy en het voorkomen van gegevenslekken. Bovendien voldoen Microsoft 365-gegevens, inclusief gegevens van Microsoft Graph en SharePoint, aan de mechanismen voor toegangsbeheer en controle.

Microsoft 365 Copilot respecteert microsoft 365-, Microsoft Entra- en Microsoft Purview-beleidsregels die de toegang en machtigingen van gebruikers verder beperken, zoals informatiebarrières, voorwaardelijke toegang en vertrouwelijkheidslabels.

Microsoft 365 Copilot neemt beleid voor preventie van gegevensverlies (DLP) over om gegevensexfiltratie van door Copilot gegenereerde reacties te voorkomen. Bovendien verbetert het de gegevensbeveiliging door vertrouwelijkheidslabels toe te passen op deze antwoorden.

Gegevens beveiligen tijdens modeltraining

Microsoft 365 Copilot maakt gebruik van vooraf getrainde LLM-modellen die worden gehost door Microsoft; er worden geen klantgegevens gebruikt om deze modellen te trainen. Bovendien worden prompt- en aardgegevens niet gebruikt om AI-modellen te trainen en worden ze nooit gedeeld met OpenAI of andere derden.

Voldoen aan vereisten voor gegevenslocatie

Microsoft houdt zich aan de toezeggingen voor gegevenslocatie, zoals beschreven in het addendum Voor productvoorwaarden en gegevensbescherming van Microsoft. Aanbiedingen van Microsoft Advanced Data Residency (ADR) en Multi-Geo Capabilities omvatten gegevenslocatieverplichtingen voor Microsoft 365 Copilot klanten vanaf 1 maart 2024. Voor gebruikers van de Europese Unie (EU) heeft Microsoft aanvullende beveiligingsmaatregelen om te voldoen aan de EU-gegevensgrens. EU-verkeer blijft binnen de EU-gegevensgrens terwijl wereldwijd verkeer kan worden verzonden naar de EU en andere landen of regio's voor LLM-verwerking.

Alle gegevens die worden verzonden voor AI-verwerking, worden zowel in transit als at-rest versleuteld. Om ervoor te zorgen dat gegevens tijdens de levenscyclus van de verwerking veilig blijven, maakt Microsoft 365 gebruik van FIPS 140-2-compatibele technologieën aan de servicezijde waarmee inhoud van klanten in rust en onderweg wordt versleuteld, waaronder BitLocker, versleuteling per bestand, Tls 1.2 (Transport Layer Security) 1.2 en Internet Protocol Security (IPsec).

Beveiliging tegen promptinjecties

Microsoft maakt gebruik van een combinatie van geavanceerde machine learning voor het filteren van inhoud op meerdere lagen, strikte beveiligingsprotocollen en continue bewaking. Indirecte of kruispromptinjectieclassificaties detecteren en blokkeren promptinjectie op meerdere lagen. Ondertussen helpen verdedigingen, zoals de volgende, ook de beveiligingsimpact van kruispromptinjectieaanvallen (XPIA) te minimaliseren:

  • XPIA-classificaties worden gebruikt om exemplaren van XPIA te detecteren en te verminderen

  • Vereiste voor door de gebruiker geïnitieerde of goedgekeurde acties (door de gebruiker geïnitieerde of goedgekeurde acties) voor bevoegde acties en acties die inhoud kunnen wijzigen of uitgaan, zoals het verzenden van een e-mailbericht

  • Onnodige mechanismen voor uitgaand verkeer van gegevens worden verwijderd om gegevensexfiltratie te voorkomen

Bovendien heeft de aanvaller in de context van een prompt-injectieaanval alleen toegang tot gegevens in de mate waartoe de gebruiker toegang heeft. Dit betekent dat de aanvaller is beperkt tot de machtigingen en gegevens die de gebruiker in het systeem heeft. Deze beperking helpt bij het beperken van de mogelijke schade van een promptinjectieaanval voor het bereik van de machtigingen van de gebruiker.

Zich houden aan verantwoordelijke AI-principes

Verantwoordelijke AI-principes van Microsoft begeleiden de ontwikkeling en het gebruik van Microsoft 365 Copilot. Microsoft 365 Copilot implementeert bijvoorbeeld classificaties, zoals de classificaties die beschikbaar zijn in Azure AI Content Veiligheid, en metaprompting om het risico op schadelijke, aanstootgevende of gewelddadige inhoud te verminderen. Microsoft 365 Copilot maakt gebruik van op AI gebaseerde classificaties en inhoudsfilters om verschillende typen mogelijk schadelijke inhoud te markeren in gebruikersprompts of gegenereerde reacties. Metaprompting begeleidt ondertussen modelgedrag, waaronder ervoor zorgen dat het systeem zich gedraagt in overeenstemming met de AI-principes en verwachtingen van gebruikers van Microsoft.

Microsoft past ook prompt inspectietechnologie en inhoudsfilters toe om het gebruik van Microsoft 365 Copilot voor ransomware en andere malware-aanvallen te voorkomen. Bovendien helpt de SDL (Security Development Lifecycle) Microsoft 365 Copilot te beveiligen tegen het uitvoeren van externe code. Een van de manieren waarop we dit doen, is voorkomen dat Copilot ongeconstrainde en ongecodeerde code uitvoert.

Om niet-geaarde inhoud te voorkomen, implementeert Microsoft 365 Copilot retrieval Augmented Generation (RAG) met behulp van een toegewezen semantische database die informatie kan bieden over de inhoud van Microsoft 365-tenantklanten. Microsoft controleert voortdurend en zorgvuldig wijzigingen in het basisniveau van het antwoord. Voor alle wijzigingen die we aanbrengen in Microsoft 365 Copilot (inclusief prompt, model of indeling), vangen we regressies op die negatieve gevolgen kunnen hebben voor de gebruiker.

Er zijn nieuwe hulpprogramma's in Azure AI die deze beveiligingen verder helpen verbeteren door AI-app-ontwikkelaars te helpen veiligere AI-toepassingen te bouwen.

Microsoft heeft ingebouwde beveiligingen tegen het genereren van beveiligde inhoud, waaronder het eerste programma voor copyrighttoezegging van klanten in de branche om klanten te verdedigen en te compenseren voor eventuele nadelige beoordelingen, in het geval van een rechtszaak tegen inbreuk op het auteursrecht.

Voldoen aan wettelijke vereisten

Microsoft 365 Copilot voldoet aan wettelijke vereisten voor eDiscovery, auditlogboekregistratie en retentie via verschillende mechanismen:

  • Bewaarbeleid: Berichten van Microsoft 365 Copilot worden automatisch opgenomen in de bewaarbeleidslocatie met de naam Teams-chats en Copilot-interacties. Dit betekent dat gebruikersprompts en Copilot-antwoorden kunnen worden bewaard en verwijderd om nalevingsredenen. De gegevens uit Copilot-berichten worden opgeslagen in een verborgen map in het postvak van de gebruiker die Copilot uitvoert, die compliancebeheerders kunnen doorzoeken met eDiscovery-hulpprogramma's.

  • Auditlogboeken: Auditlogboeken die worden gegenereerd door Microsoft 365 Copilot kunnen maximaal 180 dagen worden bewaard voor auditklanten (Standard) en tot één jaar voor houders van auditlicenties (Premium), met de optie om maximaal 10 jaar te verlengen.

  • Naleving met Microsoft Purview: Microsoft Purview biedt gegevensbeveiliging en nalevingsbeveiliging voor generatieve AI-apps zoals Copilot. Het Microsoft Purview Data Security Posture Management voor AI, dat momenteel in preview is, biedt gebruiksvriendelijke grafische hulpprogramma's en rapporten om snel inzicht te krijgen in het gebruik van AI binnen de organisatie. Beleid met één klik helpt gegevens te beveiligen en te voldoen aan wettelijke vereisten.

  • Beheer besturingselementen: beheerders kunnen Microsoft Purview gebruiken om opgeslagen gegevens weer te geven en te beheren, bewaarbeleid in te stellen en eDiscovery-zoekopdrachten uit te voeren. Zowel door de beheerder als door de gebruiker geïnitieerde verwijderingsopties zijn beschikbaar via Purview.

Veelgestelde vragen

Zijn de resultaten van Microsoft 365 Copilot betrouwbaar?

Hoewel microsoft-beveiligingen een sterke bedreigingsbeperking bieden tegen onjuiste informatie en inbreuk, zoals bij elke AI-toepassing, zijn de antwoorden van Microsoft 365 Copilot mogelijk niet altijd nauwkeurig. U moet nog steeds menselijk oordeel toepassen om deze antwoorden te controleren.

Hoe behandelt Microsoft mijn prompts en antwoorden?

Microsoft behandelt prompts en antwoorden terwijl we andere meer traditionele vormen van inhoud behandelen, zoals e-mailberichten, documenten en chats, en onze contractuele verplichtingen zijn hetzelfde.

Gebruikt Microsoft 365 Copilot mijn gegevens om AI-modellen te trainen?

Prompts, antwoorden en klantgegevens die via Microsoft Graph worden geopend, worden niet gebruikt voor het trainen van basis-LLM's, inclusief die van Microsoft 365 Copilot. Productverbeteringen worden aangestuurd door technieken zoals door de klant gerapporteerde incidenten en het genereren van synthetische prompts.

Wat moet ik doen als ik onverwachte of aanstootgevende inhoud zie?

Meld storende of verdachte inhoud onmiddellijk door de knop downvote (duim omlaag) naast het promptantwoord te selecteren.

Hoe krijg ik toegang tot het rapport Microsoft 365 Copilot evaluatie van beveiligingsproblemen?

De evaluatie van beveiligingsproblemen van derden van Microsoft 365 Copilot kan worden gedownload van de Service Trust Portal.

Kan Microsoft me helpen risico's in mijn AI-toepassingen te vinden?

Microsoft heeft Python Risk Identification Toolkit for generative AI (PyRIT) uitgebracht, een open access automation framework dat beveiligingsprofessionals en machine learning-technici in staat stelt om proactief risico's te vinden in hun eigen generatieve AI-systemen.

Heeft Microsoft 365 Copilot toegang tot gegevens die ik niet heb bij het aarden van inhoud?

Microsoft 365 Copilot toegang krijgt tot resources namens de gebruiker, zodat deze alleen toegang heeft tot resources waarvoor u al bent gemachtigd.

Aarding vindt plaats binnen de context van uw identiteit en de semantische index- en grafiekquery's worden 'beveiliging bijgesneden' op basis van uw machtigingen voor de onderliggende inhoud. Dit proces zorgt ervoor dat alleen geautoriseerde inhoud wordt opgenomen in het grondingsproces.

Hoe kan ik gegevens beperken die Microsoft 365 Copilot kan gebruiken?

De volgende stappen kunnen beheerders helpen bij het beheren van gebruikerstoegang en daarom beperken welke gegevens Microsoft 365 Copilot kunnen gebruiken:

Hoe kan ik Microsoft-beveiligingsoplossingen gebruiken om interacties tussen gegevens en AI-toepassingen te beveiligen?

Microsoft raadt u altijd aan een sterke beveiligingsbasis voor uw onderneming te bouwen. De Zero Trust beveiligingsstrategie biedt richtlijnen voor een dergelijke basis, omdat elke verbindings- en resourceaanvraag wordt behandeld alsof deze afkomstig is van een onbeheerd netwerk en een bedreigingsacteur. Gebruik Zero Trust principes, ongeacht waar de aanvraag vandaan komt of welke resource deze gebruikt.

Onze uitgebreide beveiligingsoplossingen, waaronder Microsoft Defender, Entra, Purview en Intune, werken samen om uw gegevens en interacties in Microsoft 365 Copilot en andere AI-toepassingen te beveiligen. Deze producten hebben mogelijkheden waarmee u en uw teams het volgende kunnen doen:

  • Potentiële risico's identificeren met betrekking tot AI-gebruik, zoals lekken van gevoelige gegevens en onbevoegde toegang tot toepassingen met een hoog risico

  • Beveilig de AI-toepassingen en de gevoelige gegevens die ze verwerken of genereren, inclusief prompts en antwoorden

  • Ai-gebruik op verantwoorde wijze beheren door interacties te behouden en te registreren, beleidsschendingen te detecteren en incidenten te onderzoeken

Zo hebben we onlangs nieuwe Microsoft Defender- en Purview-mogelijkheden geïntroduceerd die speciaal gebouwde hulpprogramma's bieden voor robuuste beveiliging en governance van generatieve AI-toepassingen en hun gegevens. Bovendien stroomlijnt de naadloze integratie van Microsoft Security Copilot in onze producten het algehele proces en de ervaring voor beveiligingsanalisten. Door prioriteit te geven aan beveiliging en deze geavanceerde functies aan te bieden, stelt Microsoft organisaties in staat om de voordelen en mogelijkheden die AI-toepassingen bieden, met vertrouwen toe te passen.

Waar moet ik beveiligingsproblemen in Microsoft 365 Copilot en andere AI-toepassingen melden?

Als u nieuwe beveiligingsproblemen ontdekt in een AI-platform, raden we u aan om de verantwoordelijke openbaarmakingspraktijken voor de eigenaar van het platform te volgen. De eigen procedure van Microsoft (voor Copilot) wordt uitgelegd op deze pagina: Microsoft AI Bounty Program.