Securizați mediile AI pentru dezvoltatori cu Microsoft Purview
Intermediar
Administrator
Developer
Auditor
Microsoft 365
Microsoft Purview
Microsoft Entra
Microsoft Copilot Studio
Microsoft Fabric
Foundry Tools
Microsoft Purview oferă instrumente pentru a securiza mediile AI ale dezvoltatorilor prin descoperirea aplicațiilor, evaluarea accesului la date și aplicarea protecțiilor adecvate. Aceasta include detectarea utilizării AI generative, atribuirea nivelurilor de risc ale utilizatorilor și aplicarea aplicării dinamice bazate pe comportamentul utilizatorului și sensibilitatea datelor.
Obiective de instruire
În acest modul veți învăța cum:
- Descoperiți aplicațiile AI pentru dezvoltatori și evaluați-le accesul la date sensibile
- Aplicarea protecțiilor pentru serviciile Azure AI și aplicațiile înregistrate Entra
- Guvernați agenții AI construiți în Copilot Studio
- Păstrați și clasificați conținutul prompt și de răspuns
- Investigați utilizarea riscantă a inteligenței artificiale cu gestionarea riscurilor interne, conformitatea comunicațiilor și auditul
- Aplicați protecții dinamice folosind Adaptive Protection și politici bazate pe riscuri
Cerințe preliminare
Pentru a profita la maximum de acest modul, ar trebui să aveți:
- O înțelegere de bază a caracteristicilor Microsoft Purview, cum ar fi etichetele de sensibilitate, prevenirea pierderii datelor și păstrarea
- O înțelegere generală a înregistrării aplicațiilor Microsoft Entra și a gestionării identității
- Familiarizarea cu modul în care Microsoft 365 Copilot și serviciile AI accesează datele organizaționale