Beskytt AI-genererte og AI-behandlede data

Fullført

Når Contoso tar i bruk AI-drevne tjenester, oppstår det nye risikoer rundt hvordan sensitiv informasjon brukes, genereres og eksponeres gjennom kunstig intelligens-interaksjoner. Sikkerhetsteamene må sikre at AI-verktøy behandler data på en sikker måte, bruker beskyttelse konsekvent og hindrer at sensitivt innhold misbrukes.

Risikoer innført av AI-tjenester

AI-verktøy øker effektiviteten, men skaper også nye eksponeringsrisikoer:

  • Sensitiv informasjon kan vises i AI-genererte svar.
  • Ledetekster som sendes til AI-modeller, kan inneholde sensitive eller konfidensielle data.
  • AI-generert innhold kan deles, lagres eller brukes uten riktige kontroller.

Sikkerhetspolicyer må ta for seg hvordan AI-tjenester håndterer både inndata og utdata for å hindre utilsiktet avsløring.

Microsoft Purview-beskyttelse for kunstig intelligens-interaksjoner

Microsoft Purview inkluderer beskyttelseskontroller som strekker seg til AI-tjenester:

  • Hindring av tap av data (DLP) for AI-tjenester: DLP-policyer kan evaluere ledetekster og svar som sendes til støttede AI-tjenester, og bruke beskyttelser for å forhindre sensitiv informasjonseksponering.
  • Følsomhetsetiketter og kryptering: AI-generert innhold som er lagret i Microsoft 365-tjenester, kan arve følsomhetsetiketter og bruke kryptering, slik at data forblir beskyttet selv etter at det er behandlet.
  • Insider risk management: Policyer kan overvåke risikabel aktivitet som involverer AI-tjenester, for eksempel å sende konfidensielle data inn i offentlige eller uadministrerte AI-verktøy.

Ved å utvide disse beskyttelsene til kunstig intelligens-interaksjoner sikrer Contoso at sensitiv informasjon forblir beskyttet selv om AI-verktøy blir en del av hverdagsarbeidsflyter.