Beskytt AI-genererte og AI-behandlede data
Når Contoso tar i bruk AI-drevne tjenester, oppstår det nye risikoer rundt hvordan sensitiv informasjon brukes, genereres og eksponeres gjennom kunstig intelligens-interaksjoner. Sikkerhetsteamene må sikre at AI-verktøy behandler data på en sikker måte, bruker beskyttelse konsekvent og hindrer at sensitivt innhold misbrukes.
Risikoer innført av AI-tjenester
AI-verktøy øker effektiviteten, men skaper også nye eksponeringsrisikoer:
- Sensitiv informasjon kan vises i AI-genererte svar.
- Ledetekster som sendes til AI-modeller, kan inneholde sensitive eller konfidensielle data.
- AI-generert innhold kan deles, lagres eller brukes uten riktige kontroller.
Sikkerhetspolicyer må ta for seg hvordan AI-tjenester håndterer både inndata og utdata for å hindre utilsiktet avsløring.
Microsoft Purview-beskyttelse for kunstig intelligens-interaksjoner
Microsoft Purview inkluderer beskyttelseskontroller som strekker seg til AI-tjenester:
- Hindring av tap av data (DLP) for AI-tjenester: DLP-policyer kan evaluere ledetekster og svar som sendes til støttede AI-tjenester, og bruke beskyttelser for å forhindre sensitiv informasjonseksponering.
- Følsomhetsetiketter og kryptering: AI-generert innhold som er lagret i Microsoft 365-tjenester, kan arve følsomhetsetiketter og bruke kryptering, slik at data forblir beskyttet selv etter at det er behandlet.
- Insider risk management: Policyer kan overvåke risikabel aktivitet som involverer AI-tjenester, for eksempel å sende konfidensielle data inn i offentlige eller uadministrerte AI-verktøy.
Ved å utvide disse beskyttelsene til kunstig intelligens-interaksjoner sikrer Contoso at sensitiv informasjon forblir beskyttet selv om AI-verktøy blir en del av hverdagsarbeidsflyter.