Rezumat
Aplicațiile AI construite de dezvoltatori pot debloca noi capabilități puternice, dar aduc și noi riscuri care trebuie abordate cu politicile și instrumentele potrivite. În acest modul, ați acționat ca administrator de securitate sau conformitate axat pe securizarea mediilor AI personalizate construite pe Azure AI, Microsoft Entra, Copilot Studio și Microsoft Fabric.
Ai învățat cum:
- Utilizați DSPM pentru AI pentru a descoperi aplicații, a evalua riscurile și a ghida deciziile de protecție
- Aplicați etichete de sensibilitate, prevenirea pierderii datelor și păstrarea conținutului generat de AI și surselor de date
- Capturați și păstrați datele prompte AI pentru conformitate și investigare
- Revizuirea activității utilizând instrumentele Microsoft Purview, cum ar fi Audit și eDiscovery
- Detectați utilizarea riscantă sau necorespunzătoare cu Insider Risk Management și Communication Compliance
Fără aceste protecții, aplicațiile AI pot funcționa cu vizibilitate limitată și manipulare inconsecventă a datelor. Cu Microsoft Purview, ați construit o bază pentru securizarea mediilor AI pentru dezvoltatori, sprijinind în același timp conformitatea și inovația sigură.
Resurse
- Utilizați Microsoft Purview pentru a gestiona securitatea și conformitatea datelor pentru Microsoft Copilot Studio
- Utilizați Microsoft Purview pentru a gestiona securitatea și conformitatea datelor pentru aplicațiile AI înregistrate în Entra
- Utilizați Microsoft Purview pentru a gestiona securitatea și conformitatea datelor pentru serviciile Azure AI
- Dezvoltare și implementare de aplicații AI sigure și conforme în Azure AI Foundry cu Microsoft Purview
- Configurarea soluțiilor Microsoft Purview în Data Security Posture Management (DSPM) pentru AI pentru aplicații AI particularizate