Introdução

Concluído

Ferramentas de IA como o Microsoft Copilot e o ChatGPT estão mudando a forma como os usuários acessam e interagem com os dados. Essas ferramentas podem resumir, gerar e analisar conteúdo rapidamente, mas essa velocidade também aumenta o risco de exposição de informações confidenciais ou regulamentadas. A maioria dos controles de segurança de dados tradicionais não foi projetada para abordar como as ferramentas de IA lidam com dados, especialmente em ambientes corporativos.

O Microsoft Purview ajuda a reduzir esses riscos aplicando proteções consistentes em interações de IA. As organizações podem avaliar como as ferramentas de IA usam dados confidenciais, aplicar controles de acesso e uso e reter conteúdo quando necessário para investigações ou revisões de conformidade. Esses recursos funcionam em Copilot, aplicativos de IA empresarial e ferramentas baseadas em navegador.

Objetivos de aprendizagem

Ao final deste módulo, você entenderá como:

  • Identificar riscos de segurança, conformidade e exposição de dados introduzidos por ferramentas de IA
  • Use proteções do Microsoft Purview, como rótulos de sensibilidade, políticas de DLP e Proteção adaptável para reduzir o risco relacionado à IA
  • Detete e trate atividades de IA arriscadas usando o Insider Risk Management e o Communication Compliance
  • Retenha, pesquise e exporte prompts e respostas de IA para necessidades legais ou de conformidade
  • Avalie a prontidão organizacional usando as avaliações do Compliance Manager
  • Use o DSPM para IA para avaliar como dados confidenciais são acessados ou referenciados em cenários de IA