Înțelegeți riscurile și responsabilitățile în mediile de dezvoltare AI

Finalizat

Dezvoltatorii folosesc din ce în ce mai mult instrumente precum Copilot Studio, Azure AI services, Copilot in Fabric și aplicații înregistrate Microsoft Entra. Aceste medii deblochează noi capabilități, dar creează și riscuri de securitate și conformitate dacă nu sunt aplicate garanții. De la accesul nesecurizat la răspunsuri AI neguvernate, un singur agent sau prompt configurat greșit poate duce la expunerea datelor sensibile sau la încălcări ale reglementărilor.

Agenții AI și aplicațiile create în medii de dezvoltare pot ingera, genera și partaja informații sensibile pe baza intrărilor utilizatorilor și a surselor de date backend. Mai mulți factori fac ca aceste medii să fie deosebit de riscante:

  • Atacurile de injecție promptă pot exploata intrările nefiltrate pentru a manipula comportamentul unui agent.
  • Agenții AI ar putea accesa și returna date pe care nu ar trebui să le returneze, mai ales dacă permisiunile lor sunt prea largi.
  • Fișierele utilizate în dezvoltare pot să nu aibă etichete de confidențialitate sau criptare, lăsându-le neprotejate.
  • Aplicațiile particularizate înregistrate prin Microsoft Entra ID sau implementate utilizând serviciile Azure AI pot ieși din vizibilitatea instrumentelor de securitate tradiționale dacă nu sunt integrate în Microsoft Purview.

Aceste medii includ orice instrumente sau platforme în care dezvoltatorii sau producătorii construiesc, configurează sau extind aplicații bazate pe inteligență artificială, fie prin low-code, cod personalizat sau interfețe înregistrate Microsoft Entra.

Înțelegeți provocarea

Ritmul și flexibilitatea dezvoltării AI creează adesea lacune în ceea ce privește vizibilitatea și controlul. Spre deosebire de sistemele tradiționale gestionate de IT, aceste instrumente rulează pe platforme descentralizate sau low-code, unde garanțiile nu sunt aplicate în mod consecvent. Acest lucru introduce riscuri nu numai în timpul implementării, ci și în dezvoltarea și testarea timpurie.

Stabiliți garanții în mediile de dezvoltare

Pentru a reduce aceste riscuri, organizațiile ar trebui să ia următoarele măsuri în mediile de dezvoltare AI:

  • Descoperiți aplicații și agenți pentru a identifica datele pe care le accesează
  • Aplicați etichete de confidențialitate și politici DLP, astfel încât fișierele sensibile și interacțiunile nesigure să fie protejate
  • Detectați comportamentul riscant, cum ar fi utilizarea abuzivă promptă sau accesul neautorizat folosind analiza Purview
  • Păstrați și investigați interacțiunile cu retenția, auditul și descoperirea electronică pentru a satisface nevoile de conformitate

Utilizarea Microsoft Purview pentru a aplica protecții

Odată identificate riscurile, Microsoft Purview oferă instrumentele pentru a aplica măsuri de protecție consecvente în mediile de dezvoltare. DSPM pentru AI oferă vizibilitate asupra aplicațiilor și agenților activi, în timp ce auditul și detectarea riscurilor captează interacțiunile și scot la iveală potențialele utilizări abuzive. Pentru a proteja conținutul sensibil, administratorii pot aplica etichete de confidențialitate și politici DLP. Politicile de păstrare păstrează datele prompte și de răspuns pentru conformitate, în timp ce descoperirea electronică acceptă căutarea și investigarea acestor date atunci când este necesar.

Susțineți dezvoltarea sigură fără a încetini inovația

Aceste instrumente permit organizațiilor să aplice măsuri de protecție consecvente în mediile de dezvoltare AI. Concentrându-se pe vizibilitate, protecție, detectare și conformitate, organizațiile pot sprijini dezvoltarea sigură fără a încetini inovația.