Innføring

Fullført

Egendefinerte apper for kunstig intelligens gir utviklere fleksibilitet, men de introduserer også nye utfordringer for datasikkerhet og samsvar. Disse appene får ofte tilgang til sensitiv informasjon og genererer svar som kan føre til utilsiktet dataeksponering hvis de ikke styres riktig.

I denne modulen tar du på deg rollen som en sikkerhets- eller samsvarsadministrator som er ansvarlig for å sikre AI-miljøer bygd med Azure AI, Microsoft Entra, Copilot Studio og Microsoft Fabric. Du bruker Microsoft Purview til å oppdage disse appene, vurdere risikoene og bruke riktig beskyttelse basert på datafølsomhet, bruksmønstre og forskriftsmessige krav.

I denne modulen kan du:

  • Forstå sikkerhets- og samsvarsrisikoene knyttet til AI-miljøer for utviklere
  • Oppdag og vurder apper for kunstig intelligens ved hjelp av DSPM (Data Security Posture Management) for kunstig intelligens
  • Håndhev beskyttelse for Azure AI-tjenester og Entra-registrerte apper
  • Styr egendefinerte agenter opprettet i Copilot Studio
  • Klassifisere og beholde spørsmål og svarinnhold
  • Undersøk risikabel AI-aktivitet ved hjelp av verktøy som Insider Risk Management, Communication Compliance og Audit

På slutten av denne modulen vet du hvordan du bruker Microsoft Purview-verktøy for å sikre AI-bruk i utviklerdrevne miljøer og opprettholde konsekvent beskyttelse på tvers av AI-plattformer.