Forstå risiko og ansvar i AI-utviklingsmiljøer

Fullført

Utviklere bruker i økende grad verktøy som Copilot Studio, Azure AI-tjenester, Copilot i Fabric og Microsoft Entra-registrerte apper. Disse miljøene låser opp nye funksjoner, men skaper også sikkerhets- og samsvarsrisikoer hvis sikkerhetstiltak ikke brukes. Fra usikret datatilgang til ustyrte AI-svar kan en enkelt feilkonfigurert agent eller melding føre til eksponering av sensitive data eller brudd på forskrifter.

AI-agenter og apper som er opprettet i utviklingsmiljøer, kan innta, generere og dele sensitiv informasjon basert på brukerinndata og serverdeldatakilder. Flere faktorer gjør disse miljøene unikt risikable:

  • Raske injeksjonsangrep kan utnytte ufiltrerte inndata for å manipulere en agents oppførsel.
  • AI-agenter kan få tilgang til og returnere data de ikke burde, spesielt hvis tillatelsene deres er for brede.
  • Filer som brukes i utvikling kan mangle følsomhetsetiketter eller kryptering, slik at de ikke er beskyttet.
  • Egendefinerte apper som er registrert via Microsoft Entra ID eller distribuert ved hjelp av Azure AI-tjenester, kan falle utenfor synligheten til tradisjonelle sikkerhetsverktøy hvis de ikke er pålastet i Microsoft Purview.

Disse miljøene inkluderer alle verktøy eller plattformer der utviklere eller utviklere bygger, konfigurerer eller utvider apper drevet av kunstig intelligens, enten via lavkode, egendefinert kode eller Microsoft Entra-registrerte grensesnitt.

Forstå utfordringen

Tempoet og fleksibiliteten i AI-utviklingen skaper ofte hull i synlighet og kontroll. I motsetning til tradisjonelle IT-administrerte systemer, kjører disse verktøyene i desentraliserte plattformer eller lavkodeplattformer der sikkerhetstiltak ikke brukes konsekvent. Det introduserer risiko ikke bare under distribusjon, men også i tidlig utvikling og testing.

Etabler sikkerhetstiltak på tvers av utviklingsmiljøer

For å redusere disse risikoene bør organisasjoner utføre disse handlingene på tvers av AI-utviklingsmiljøer:

  • Oppdag apper og agenter for å identifisere dataene de får tilgang til
  • Bruk følsomhetsetiketter og DLP-policyer slik at sensitive filer og usikre samhandlinger beskyttes
  • Oppdag risikabel virkemåte, for eksempel rask misbruk eller uautorisert tilgang ved hjelp av Purview-analyse
  • Bevar og undersøk samhandlinger med oppbevaring, revisjon og eDiscovery for å oppfylle samsvarsbehov

Bruke Microsoft Purview til å bruke beskyttelse

Når risikoer er identifisert, gir Microsoft Purview verktøyene for å bruke konsekvente sikkerhetstiltak på tvers av utviklingsmiljøer. DSPM for AI gir innsyn i hvilke apper og agenter som er aktive, mens overvåking og risikodeteksjon fanger opp interaksjoner og avdekker potensielt misbruk. For å beskytte sensitivt innhold kan administratorer bruke følsomhetsetiketter og DLP-policyer. Oppbevaringspolicyer bevarer hurtig- og svardata for samsvar, mens eDiscovery støtter søk og undersøkelse av disse dataene når det er nødvendig.

Støtt sikker utvikling uten å bremse innovasjon

Disse verktøyene lar organisasjoner bruke konsekvente sikkerhetstiltak på tvers av AI-utviklingsmiljøer. Ved å fokusere på synlighet, beskyttelse, deteksjon og samsvar kan organisasjoner støtte sikker utvikling uten å bremse innovasjonen.