Entenda como o Microsoft Purview controla o acesso a dados de IA

Concluído

Uma vez identificados os riscos relacionados à IA e ao conteúdo sensível, a próxima etapa é aplicar controles que ajudem a evitar o acesso inadequado. O Microsoft Purview baseia-se em ferramentas de segurança de dados existentes para limitar a forma como o conteúdo sensível é usado em interações de IA. Essas ferramentas incluem rótulos de sensibilidade e políticas de prevenção de perda de dados (DLP), que se aplicam aos serviços do Microsoft 365 suportados e cenários de IA.

Impor limites de acesso com rótulos de sensibilidade

Os rótulos de sensibilidade definem como o conteúdo pode ser usado, e essas regras são levadas para as interações de IA. Pense nos rótulos como limites de acesso que permanecem com os dados, não importa para onde eles vão.

Por exemplo, no Microsoft 365 Copilot:

  • Um documento rotulado com criptografia está protegido. Se um usuário não tiver permissão para lê-lo, o Copilot não incluirá esse conteúdo em uma resposta.
  • A etiquetagem automática pode aplicar proteções a arquivos confidenciais antes mesmo que um usuário tente fazer referência a eles em um prompt, fechando lacunas em que alguém se esquece de rotular um arquivo.
  • Os rótulos que restringem a cópia ou extração podem impedir ou reduzir as respostas do Copilot que expõem essas informações, dependendo da configuração do rótulo.

Como essas proteções se aplicam ao Word, Excel, Outlook, Teams e outros aplicativos do Microsoft 365, as mesmas regras de acesso nas quais sua organização já depende se estendem para interações do Copilot.

Usar políticas de DLP para bloquear ou auditar a atividade de IA

As políticas de prevenção contra perda de dados (DLP) atuam como guardrails para a forma como os dados confidenciais se movem durante as interações de IA. Considere um cenário em que um usuário cola dados pessoais do cliente em um prompt do Copilot. Dependendo das regras em vigor, a DLP pode:

  • Bloquear o envio do prompt
  • Avisar o utilizador ou pedir justificação antes de continuar
  • Auditar a atividade para revisão posterior

Quando o Copilot estiver disponível como um local de política de DLP em seu locatário, você poderá aplicar esses controles diretamente aos prompts. As mesmas políticas que já protegem o email e o SharePoint agora também se aplicam à atividade de IA.

As ferramentas de IA baseadas em navegador exigem uma abordagem diferente. O Endpoint DLP e o Microsoft Edge for Business podem detetar quando um usuário tenta colar ou carregar conteúdo confidencial em um serviço de IA não gerenciado, como o ChatGPT ou o Gemini, ajudando a fechar lacunas fora do Microsoft 365.

Entenda quais proteções se aplicam a cada ferramenta de IA

Nem todas as ferramentas de IA suportam as mesmas salvaguardas. As proteções disponíveis dependem de como a ferramenta se conecta ao seu ambiente. Se a ferramenta não for gerenciada ou baseada em navegador, o endpoint e o DLP do navegador serão suas principais proteções.

Tipo de ferramenta de IA Proteções suportadas
Copiloto da Microsoft Rótulos de sensibilidade, DLP, Auditoria, Gestão de Risco Insider
Copilot Studio / Tecido Rótulos de sensibilidade, DLP, lógica de política personalizada e integração Purview para agentes Dataverse
Aplicativos de IA empresarial DLP através de endpoints, Microsoft Edge e locais de dados do Microsoft 365, com controles de acesso impostos pelo Microsoft Entra ID
Ferramentas baseadas em navegador DLP do ponto final, políticas de controle do navegador, restrições de transferência de arquivos
Azure AI Foundry / ferramentas de IA do desenvolvedor DLP e etiquetagem via integração Purview e SDK, visibilidade em Data Security Posture Management for AI

Esse mapeamento ajuda você a decidir quais ferramentas podem ser governadas com proteções internas e quais exigem camadas adicionais, como controles de ponto de extremidade ou navegador.