Sammendrag

Fullført

AI-applikasjoner bygget av utviklere kan låse opp kraftige nye funksjoner, men de gir også nye risikoer som må håndteres med de riktige retningslinjene og verktøyene. I denne modulen fungerte du som sikkerhets- eller samsvarsadministrator med fokus på å sikre egendefinerte AI-miljøer bygd på Azure AI, Microsoft Entra, Copilot Studio og Microsoft Fabric.

Du lærte hvordan du kan:

  • Bruk DSPM for kunstig intelligens til å oppdage apper, vurdere risikoer og veilede beskyttelsesbeslutninger
  • Bruk følsomhetsetiketter, hindring av datatap og oppbevaring på AI-generert innhold og datakilder
  • Fang opp og behold AI-forespørselsdata for samsvar og undersøkelse
  • Se gjennom aktivitet ved hjelp av Microsoft Purview-verktøy som overvåking og eDiscovery
  • Oppdag risikabel eller upassende bruk med insider risk management og kommunikasjonssamsvar

Uten disse beskyttelsene kan AI-apper operere med begrenset synlighet og inkonsekvent datahåndtering. Med Microsoft Purview har du bygget et grunnlag for å sikre AI-miljøer for utviklere, samtidig som du støtter samsvar og sikker innovasjon.

Ressurser