Forstå risiko og ansvar i AI-utviklingsmiljøer
Utviklere bruker i økende grad verktøy som Copilot Studio, Azure AI-tjenester, Copilot i Fabric og Microsoft Entra-registrerte apper. Disse miljøene låser opp nye funksjoner, men skaper også sikkerhets- og samsvarsrisikoer hvis sikkerhetstiltak ikke brukes. Fra usikret datatilgang til ustyrte AI-svar kan en enkelt feilkonfigurert agent eller melding føre til eksponering av sensitive data eller brudd på forskrifter.
AI-agenter og apper som er opprettet i utviklingsmiljøer, kan innta, generere og dele sensitiv informasjon basert på brukerinndata og serverdeldatakilder. Flere faktorer gjør disse miljøene unikt risikable:
- Raske injeksjonsangrep kan utnytte ufiltrerte inndata for å manipulere en agents oppførsel.
- AI-agenter kan få tilgang til og returnere data de ikke burde, spesielt hvis tillatelsene deres er for brede.
- Filer som brukes i utvikling kan mangle følsomhetsetiketter eller kryptering, slik at de ikke er beskyttet.
- Egendefinerte apper som er registrert via Microsoft Entra ID eller distribuert ved hjelp av Azure AI-tjenester, kan falle utenfor synligheten til tradisjonelle sikkerhetsverktøy hvis de ikke er pålastet i Microsoft Purview.
Disse miljøene inkluderer alle verktøy eller plattformer der utviklere eller utviklere bygger, konfigurerer eller utvider apper drevet av kunstig intelligens, enten via lavkode, egendefinert kode eller Microsoft Entra-registrerte grensesnitt.
Forstå utfordringen
Tempoet og fleksibiliteten i AI-utviklingen skaper ofte hull i synlighet og kontroll. I motsetning til tradisjonelle IT-administrerte systemer, kjører disse verktøyene i desentraliserte plattformer eller lavkodeplattformer der sikkerhetstiltak ikke brukes konsekvent. Det introduserer risiko ikke bare under distribusjon, men også i tidlig utvikling og testing.
Etabler sikkerhetstiltak på tvers av utviklingsmiljøer
For å redusere disse risikoene bør organisasjoner utføre disse handlingene på tvers av AI-utviklingsmiljøer:
- Oppdag apper og agenter for å identifisere dataene de får tilgang til
- Bruk følsomhetsetiketter og DLP-policyer slik at sensitive filer og usikre samhandlinger beskyttes
- Oppdag risikabel virkemåte, for eksempel rask misbruk eller uautorisert tilgang ved hjelp av Purview-analyse
- Bevar og undersøk samhandlinger med oppbevaring, revisjon og eDiscovery for å oppfylle samsvarsbehov
Bruke Microsoft Purview til å bruke beskyttelse
Når risikoer er identifisert, gir Microsoft Purview verktøyene for å bruke konsekvente sikkerhetstiltak på tvers av utviklingsmiljøer. DSPM for AI gir innsyn i hvilke apper og agenter som er aktive, mens overvåking og risikodeteksjon fanger opp interaksjoner og avdekker potensielt misbruk. For å beskytte sensitivt innhold kan administratorer bruke følsomhetsetiketter og DLP-policyer. Oppbevaringspolicyer bevarer hurtig- og svardata for samsvar, mens eDiscovery støtter søk og undersøkelse av disse dataene når det er nødvendig.
Støtt sikker utvikling uten å bremse innovasjon
Disse verktøyene lar organisasjoner bruke konsekvente sikkerhetstiltak på tvers av AI-utviklingsmiljøer. Ved å fokusere på synlighet, beskyttelse, deteksjon og samsvar kan organisasjoner støtte sikker utvikling uten å bremse innovasjonen.