Sammendrag
AI-applikasjoner bygget av utviklere kan låse opp kraftige nye funksjoner, men de gir også nye risikoer som må håndteres med de riktige retningslinjene og verktøyene. I denne modulen fungerte du som sikkerhets- eller samsvarsadministrator med fokus på å sikre egendefinerte AI-miljøer bygd på Azure AI, Microsoft Entra, Copilot Studio og Microsoft Fabric.
Du lærte hvordan du kan:
- Bruk DSPM for kunstig intelligens til å oppdage apper, vurdere risikoer og veilede beskyttelsesbeslutninger
- Bruk følsomhetsetiketter, hindring av datatap og oppbevaring på AI-generert innhold og datakilder
- Fang opp og behold AI-forespørselsdata for samsvar og undersøkelse
- Se gjennom aktivitet ved hjelp av Microsoft Purview-verktøy som overvåking og eDiscovery
- Oppdag risikabel eller upassende bruk med insider risk management og kommunikasjonssamsvar
Uten disse beskyttelsene kan AI-apper operere med begrenset synlighet og inkonsekvent datahåndtering. Med Microsoft Purview har du bygget et grunnlag for å sikre AI-miljøer for utviklere, samtidig som du støtter samsvar og sikker innovasjon.
Ressurser
- Bruk Microsoft Purview til å administrere datasikkerhet og samsvar for Microsoft Copilot Studio
- Bruk Microsoft Purview til å administrere datasikkerhet og samsvar for Entra-registrerte AI-apper
- Bruk Microsoft Purview til å administrere datasikkerhet og samsvar for Azure AI-tjenester
- Sikker og kompatibel apputvikling og distribusjon for kunstig intelligens i Azure AI Foundry med Microsoft Purview
- Konfigurer Microsoft Purview-løsninger i DSPM (Data Security Posture Management) for AI for egendefinerte AI-programmer