Proteggere i dati generati dall'intelligenza artificiale e elaborati dall'intelligenza artificiale

Completato

Man mano che Contoso adotta servizi basati sull'intelligenza artificiale, emergono nuovi rischi relativi all'uso, alla generazione e all'esposizione delle informazioni riservate tramite interazioni con intelligenza artificiale. I team di sicurezza devono assicurarsi che gli strumenti di intelligenza artificiale elaborino i dati in modo sicuro, applichino le protezioni in modo coerente e impediscono l'uso improprio dei contenuti sensibili.

Rischi introdotti dai servizi di intelligenza artificiale

Gli strumenti di intelligenza artificiale aumentano l'efficienza, ma creano anche nuovi rischi di esposizione:

  • Le informazioni riservate potrebbero essere visualizzate nelle risposte generate dall'intelligenza artificiale.
  • Le richieste inviate ai modelli di intelligenza artificiale possono includere dati sensibili o riservati.
  • Il contenuto generato dall'intelligenza artificiale potrebbe essere condiviso, archiviato o usato senza controlli appropriati.

I criteri di sicurezza devono affrontare il modo in cui i servizi di intelligenza artificiale gestiscono i dati di input e di output per impedire la divulgazione imprevista.

Protezioni di Microsoft Purview per le interazioni con intelligenza artificiale

Microsoft Purview include controlli di protezione che si estendono ai servizi di intelligenza artificiale:

  • Prevenzione della perdita dei dati (DLP) per i servizi di intelligenza artificiale: i criteri DLP possono valutare le richieste e le risposte inviate ai servizi di intelligenza artificiale supportati, applicando protezioni per impedire l'esposizione di informazioni riservate.
  • Etichette di riservatezza e crittografia: il contenuto generato dall'intelligenza artificiale archiviato nei servizi Microsoft 365 può ereditare le etichette di riservatezza e applicare la crittografia, assicurando che i dati rimangano protetti anche dopo l'elaborazione.
  • Gestione dei rischi Insider: i criteri possono monitorare le attività rischiose che coinvolgono i servizi di intelligenza artificiale, ad esempio l'invio di dati riservati in strumenti di intelligenza artificiale pubblici o non gestiti.

Estendendo queste protezioni alle interazioni con intelligenza artificiale, Contoso garantisce che le informazioni riservate rimangano protette anche quando gli strumenti di intelligenza artificiale diventano parte dei flussi di lavoro quotidiani.