Introdução
Ferramentas de IA como o Microsoft Copilot e o ChatGPT estão mudando a forma como os usuários acessam e interagem com os dados. Essas ferramentas podem resumir, gerar e analisar conteúdo rapidamente, mas essa velocidade também aumenta o risco de exposição de informações confidenciais ou regulamentadas. A maioria dos controles de segurança de dados tradicionais não foi projetada para abordar como as ferramentas de IA lidam com dados, especialmente em ambientes corporativos.
O Microsoft Purview ajuda a reduzir esses riscos aplicando proteções consistentes em interações de IA. As organizações podem avaliar como as ferramentas de IA usam dados confidenciais, aplicar controles de acesso e uso e reter conteúdo quando necessário para investigações ou revisões de conformidade. Esses recursos funcionam em Copilot, aplicativos de IA empresarial e ferramentas baseadas em navegador.
Objetivos de aprendizagem
Ao final deste módulo, você entenderá como:
- Identificar riscos de segurança, conformidade e exposição de dados introduzidos por ferramentas de IA
- Use proteções do Microsoft Purview, como rótulos de sensibilidade, políticas de DLP e Proteção adaptável para reduzir o risco relacionado à IA
- Detete e trate atividades de IA arriscadas usando o Insider Risk Management e o Communication Compliance
- Retenha, pesquise e exporte prompts e respostas de IA para necessidades legais ou de conformidade
- Avalie a prontidão organizacional usando as avaliações do Compliance Manager
- Use o DSPM para IA para avaliar como dados confidenciais são acessados ou referenciados em cenários de IA