Share via


Proteções de segurança e conformidade de dados do Microsoft Purview para o Microsoft Copilot

Diretrizes de licenciamento do Microsoft 365 para conformidade de & de segurança

Use o Microsoft Purview para mitigar e gerenciar os riscos associados ao uso de IA e implementar controles de proteção e governança correspondentes.

Descubra, proteja e cumpra categorias para uso de IA e dados generativos usando o Microsoft Purview.

O Hub de IA do Microsoft Purview está atualmente em versão prévia e fornece ferramentas gráficas e relatórios fáceis de usar para obter informações rapidamente sobre o uso de IA em sua organização. Políticas de um clique ajudam você a proteger seus dados e a cumprir os requisitos regulatórios.

Use o hub de IA em conjunto com outros recursos do Microsoft Purview para fortalecer sua segurança e conformidade de dados para Microsoft Copilot para Microsoft 365:

Observação

Para marcar se os planos de licenciamento da sua organização dão suporte a esses recursos, consulte o link de diretrizes de licenciamento na parte superior da página. Para obter informações de licenciamento para Microsoft Copilot para Microsoft 365 em si, consulte a descrição do serviço para Microsoft Copilot para Microsoft 365.

Use as seções a seguir para saber mais sobre o hub de IA e os recursos do Microsoft Purview que fornecem controles adicionais de segurança de dados e conformidade para acelerar a adoção da Microsoft Copilot pela sua organização e outros aplicativos de IA generativos. Se você for novo no Microsoft Purview, também poderá encontrar uma visão geral do produto útil: saiba mais sobre o Microsoft Purview.

Para obter informações mais gerais sobre requisitos de segurança e conformidade para Copilot para Microsoft 365, consulte Dados, Privacidade e Segurança para Microsoft Copilot para Microsoft 365.

O Hub de IA do Microsoft Purview fornece insights, políticas e controles para aplicativos de IA

Observação

O Hub de IA do Microsoft Purview está atualmente em versão prévia e sujeito a alterações.

O hub de IA do portal do Microsoft Purview ou do portal de conformidade do Microsoft Purview fornece um local de gerenciamento central para ajudá-lo a proteger dados rapidamente para aplicativos de IA e monitorar proativamente o uso de IA. Esses aplicativos incluem Microsoft Copilot para Microsoft 365 e aplicativos de IA de LLMs (módulos de idioma grande) de terceiros.

Captura de tela de exemplo do Microsoft Purview AI Hub, analytics.

O hub de IA oferece um conjunto de recursos para que você possa adotar a IA com segurança sem precisar escolher entre produtividade e proteção:

  • Insights e análises sobre a atividade de IA em sua organização

  • Políticas prontas para uso para proteger dados e evitar perda de dados em prompts de IA

  • Controles de conformidade para aplicar políticas ideais de tratamento e armazenamento de dados

Para obter uma lista de sites de IA de terceiros com suporte, como os usados para Bardo e ChatGPT, consulte Sites de IA com suporte pelo Microsoft Purview para proteções de conformidade e segurança de dados.

Como usar o hub de IA

Para ajudá-lo a obter informações mais rapidamente sobre o uso de IA e proteger seus dados, o hub de IA fornece algumas políticas pré-configuradas que você pode ativar com um único clique. Permitir pelo menos 24 horas para que essas novas políticas coletem dados para exibir os resultados no hub de IA ou refletir quaisquer alterações feitas nas configurações padrão.

Para começar a usar o hub de IA, você pode usar o portal do Microsoft Purview ou o portal de conformidade do Microsoft Purview. Você precisa de uma conta que tenha permissões apropriadas para o gerenciamento de conformidade, como uma conta que seja membro da função de grupo administrador de conformidade Microsoft Entra.

  1. Dependendo do portal que estiver usando, navegue até um dos seguintes locais:

  2. No Analytics, examine a seção Introdução para saber mais sobre o hub de IA e as ações imediatas que você pode executar. Selecione cada um para exibir o painel de sobrevoo para saber mais, executar ações e verificar seu status atual.

    Ação Mais informações
    Ativar Auditoria do Microsoft Purview A auditoria está ativada por padrão para novos locatários, portanto, você já pode atender a esse pré-requisito. Se você fizer isso e os usuários já tiverem licenças atribuídas para Copilot, você começará a ver insights sobre as atividades do Copilot na seção análise de dados de IA mais abaixo na página.
    Instalar a extensão do navegador Microsoft Purview Um pré-requisito para sites de IA de terceiros.
    Integrar dispositivos ao Microsoft Purview Também um pré-requisito para sites de IA de terceiros.
    Estender seus insights para descoberta de dados Políticas de um clique para coletar informações sobre usuários que visitam sites de IA generativos de terceiros e enviar informações confidenciais para eles. A opção é a mesma que o botão Estender seus insights na seção análise de dados de IA mais abaixo na página.

    Para obter mais informações sobre os pré-requisitos, consulte Pré-requisitos para o hub de IA.

    Para obter mais informações sobre as políticas pré-configuradas que você pode ativar, confira Políticas de um clique no hub de IA.

  3. Em seguida, examine a seção Recomendações e decida se deve implementar quaisquer opções relevantes para seu locatário. Por exemplo:

  4. Selecione Políticas no hub de IA em que você pode ativar rapidamente políticas padrão para ajudar você a proteger dados confidenciais enviados a sites de IA generativos de terceiros e proteger seus dados com rótulos de confidencialidade. Para obter mais informações sobre essas políticas, consulte Políticas de um clique no hub de IA. Você precisa esperar pelo menos um dia para que os relatórios sejam preenchidos.

    Em Recomendações e Fortificar sua segurança de dados para IA, selecione Começar a aprender mais, executar ações e verificar seu status atual.

    Quando suas políticas são criadas, incluindo as do Analytics, você pode monitorar suas status a partir desta página. Para editá-los, use a solução de gerenciamento correspondente no portal. Por exemplo, para controlar o comportamento antiético na IA, você pode examinar e corrigir as correspondências da solução de Conformidade de Comunicação.

  5. Selecione Gerenciador de atividades no hub de IA para ver detalhes dos dados coletados de suas políticas. Selecionar Exibir Detalhes de qualquer um dos gráficos da página Análise ou Políticas também leva você ao Gerenciador de Atividades.

    Essas informações mais detalhadas incluem atividade, carga de trabalho e aplicativo, usuário, data e hora e quaisquer tipos de informações confidenciais detectados.

    Exemplos de atividades incluem interação com IA, classificação carimbada, correspondência de regra DLP e visita de IA. Para obter mais informações sobre os eventos, consulte Eventos do Gerenciador de atividades.

    Exemplos de aplicativos incluem o Microsoft Copilot e outro aplicativo de IA.

    Captura de tela de exemplo do Microsoft Purview AI Hub, gerenciador de atividades mostrando atividades de IA.

Para Microsoft Copilot para Microsoft 365, use essas políticas e insights em conjunto com proteções adicionais e recursos de conformidade do Microsoft Purview.

Microsoft Purview reforça proteção de informações para Copilot

O Copilot usa controles existentes para garantir que os dados armazenados em seu locatário nunca sejam retornados ao usuário ou usados por um LLM (modelo de idioma grande) se o usuário não tiver acesso a esses dados. Quando os dados têm rótulos de confidencialidade de sua organização aplicados ao conteúdo, há uma camada extra de proteção:

  • Quando um arquivo é aberto em Word, Excel, PowerPoint ou da mesma forma um evento de email ou calendário é aberto do Outlook, a confidencialidade dos dados é exibida aos usuários no aplicativo com o nome do rótulo e marcas de conteúdo (como cabeçalho ou texto rodapé) que foram configurados para o rótulo.

  • Quando o rótulo de confidencialidade aplica criptografia, os usuários devem ter o uso EXTRACT correto, bem como VIEW, para que Copilot retorne os dados.

  • Essa proteção se estende a dados armazenados fora do locatário do Microsoft 365 quando abertos em um aplicativo do Office (dados em uso). Por exemplo, armazenamento local, compartilhamentos de rede e armazenamento em nuvem.

Dica

Se você ainda não tiver, é recomendável habilitar rótulos de confidencialidade para SharePoint e OneDrive e também se familiarizar com os tipos de arquivo e configurações de rótulo que esses serviços podem processar. Quando os rótulos de confidencialidade não estão habilitados para esses serviços, os arquivos criptografados que Copilot para Microsoft 365 podem acessar são limitados a dados em uso de aplicativos do Office no Windows.

Para obter instruções, consulte Habilitar rótulos de confidencialidade para arquivos do Office no SharePoint e no OneDrive.

Além disso, quando você usa o chat aterrado do Microsoft Copilot Graph (anteriormente Microsoft 365 Chat) que pode acessar dados de uma ampla gama de conteúdo, a confidencialidade dos dados rotulados retornados pelo Copilot para Microsoft 365 fica visível para os usuários com o rótulo de confidencialidade exibido para citações e os itens listados na resposta. Usando o número de prioridade dos rótulos de confidencialidade definido no portal do Microsoft Purview ou no portal de conformidade do Microsoft Purview, a resposta mais recente em Copilot exibe o rótulo de confidencialidade de prioridade mais alta dos dados usados para esse chat copilot.

Embora os administradores de conformidade definam a prioridade de um rótulo de confidencialidade, um número de prioridade mais alto geralmente denota maior confidencialidade do conteúdo, com permissões mais restritivas. Como resultado, as respostas Copilot são rotuladas com o rótulo de confidencialidade mais restritivo.

Observação

Se os itens forem criptografados por Proteção de Informações do Microsoft Purview mas não tiverem um rótulo de confidencialidade, Microsoft Copilot para Microsoft 365 também não retornará esses itens aos usuários se a criptografia não incluir os direitos de uso EXTRACT ou VIEW para o usuário.

Se você ainda não estiver usando rótulos de confidencialidade, consulte Introdução aos rótulos de confidencialidade.

Embora as políticas DLP ainda não ofereçam suporte a interações para Microsoft Copilot para Microsoft 365, há suporte à classificação de dados para tipos de informações confidenciais e classificadores treináveis para identificar dados confidenciais em prompts de usuário para Copilot e respostas.

Proteção de copiloto com herança de rótulo de confidencialidade

Quando você usa Copilot para criar um novo conteúdo com base em um item que tem um rótulo de confidencialidade aplicado, o rótulo de confidencialidade do arquivo de origem é herdado automaticamente, com as configurações de proteção do rótulo.

Por exemplo, um usuário seleciona Rascunho com Copilot em Word e, em seguida, Referenciar um arquivo. Ou um usuário seleciona Create apresentação do arquivo no PowerPoint. O conteúdo de origem tem o rótulo de confidencialidade Confidencial\Alguém (irrestrito) aplicado e esse rótulo é configurado para aplicar um rodapé que exibe "Confidencial". O novo conteúdo é automaticamente rotulado confidencial\qualquer pessoa (irrestrito) com o mesmo rodapé.

Para ver um exemplo disso em ação, watch a demonstração a seguir da sessão Ignite 2023, preparando sua empresa para o Microsoft 365 Copilot. A demonstração mostra como o rótulo de confidencialidade padrão de Geral é substituído por um rótulo Confidencial quando um usuário elabora com Copilot e faz referência a um arquivo rotulado. A barra de informações sob a faixa de opções informa ao usuário que o conteúdo criado pelo Copilot resultou na aplicação automática do novo rótulo:

Se vários arquivos forem usados para criar um novo conteúdo, o rótulo de confidencialidade com a maior prioridade será usado para herança de rótulo.

Assim como acontece com todos os cenários de rotulagem automática, o usuário sempre pode substituir e substituir um rótulo herdado (ou remover, se você não estiver usando rotulagem obrigatória).

Proteção do Microsoft Purview sem rótulos de confidencialidade

Mesmo que um rótulo de confidencialidade não seja aplicado ao conteúdo, serviços e produtos poderão usar os recursos de criptografia do serviço de Gerenciamento de Direitos do Azure. Como resultado, Copilot para Microsoft 365 ainda pode marcar para os direitos de uso VIEW e EXTRACT antes de retornar dados e links para um usuário, mas não há herança automática de proteção para novos itens.

Dica

Você terá a melhor experiência de usuário quando sempre usar rótulos de confidencialidade para proteger seus dados, e a criptografia é aplicada por um rótulo.

Exemplos de produtos e serviços que podem usar os recursos de criptografia do serviço de Gerenciamento de Direitos do Azure sem rótulos de confidencialidade:

  • Criptografia de Mensagem do Microsoft Purview
  • Gerenciamento de Direitos de Informações da Microsoft (IRM)
  • Conector do Microsoft Rights Management
  • SDK de Gerenciamento de Direitos da Microsoft

Para outros métodos de criptografia que não usam o serviço de Gerenciamento de Direitos do Azure:

  • Os emails protegidos por S/MIME não serão retornados pelo Copilot e o Copilot não está disponível no Outlook quando um email protegido por S/MIME estiver aberto.

  • Documentos protegidos por senha não podem ser acessados por Copilot para Microsoft 365 a menos que já sejam abertos pelo usuário no mesmo aplicativo (dados em uso). As senhas não são herdadas por um item de destino.

Assim como acontece com outros serviços do Microsoft 365, como descoberta eletrônica e pesquisa, itens criptografados com a Chave do Cliente do Microsoft Purview ou sua própria chave raiz (BYOK) têm suporte e são qualificados para serem retornados por Copilot para Microsoft 365.

O Microsoft Purview dá suporte ao gerenciamento de conformidade para Copilot

Use os recursos de conformidade do Microsoft Purview para dar suporte aos seus requisitos de risco e conformidade para Copilot para Microsoft 365.

As interações com Copilot podem ser monitoradas para cada usuário em seu locatário. Como tal, você pode usar a classificação do Purview (tipos de informações confidenciais e classificadores treináveis), pesquisa de conteúdo, conformidade de comunicação, auditoria, descoberta eletrônica e recursos automáticos de retenção e exclusão usando políticas de retenção.

Para conformidade com a comunicação, você pode analisar prompts de usuário e respostas Copilot para detectar interações inadequadas ou arriscadas ou compartilhamento de informações confidenciais. Para obter mais informações, consulte Configurar uma política de conformidade de comunicação a ser detectada para Copilot para Microsoft 365 interações.

communication-compliance-microsoft-365-copilot.

Para auditoria, os detalhes são capturados no log de auditoria unificado quando os usuários interagem com Copilot. Os eventos incluem como e quando os usuários interagem com o Copilot, no qual o serviço microsoft 365 ocorreu, e referências aos arquivos armazenados no Microsoft 365 que foram acessados durante a interação. Se esses arquivos tiverem um rótulo de confidencialidade aplicado, isso também será capturado. Na solução Auditoria do portal do Microsoft Purview ou do portal de conformidade do Microsoft Purview, selecione Atividades do Copilot e Interação com Copilot. Você também pode selecionar Copilot como uma carga de trabalho. Por exemplo, no portal de conformidade:

Opções de auditoria para identificar interações do usuário com Microsoft Copilot para Microsoft 365.

Para pesquisa de conteúdo, como as solicitações do usuário para Copilot e as respostas do Copilot são armazenadas na caixa de correio de um usuário, elas podem ser pesquisadas e recuperadas quando a caixa de correio do usuário é selecionada como a origem de uma consulta de pesquisa. Selecione e recupere esses dados da caixa de correio de origem selecionando Adicionarinterações copilotos detipo> de condição>.

Da mesma forma para descoberta eletrônica, você usa o mesmo processo de consulta para selecionar caixas de correio e recuperar prompts de usuário para Copilot e respostas de Copilot. Depois que a coleção é criada e originada para a fase de revisão no eDiscovery (Premium), esses dados estão disponíveis para executar todas as ações de revisão existentes. Essas coleções e conjuntos de revisão podem ser colocados em espera ou exportados. Se você precisar excluir esses dados, consulte Pesquisar e excluir dados para Microsoft Copilot para Microsoft 365.

Para políticas de retenção que dão suporte à retenção e exclusão automáticas, os prompts do usuário para Copilot e as respostas do Copilot são identificados pelos chats de localização do Teams e interações copilot. Previamente nomeados apenas chats do Teams, os usuários não precisam usar o chat do Teams para que essa política se aplique a eles. Todas as políticas de retenção existentes configuradas anteriormente para chats do Teams agora incluem automaticamente prompts e respostas do usuário de e para Microsoft Copilot para Microsoft 365:

O local de retenção de chats do Teams atualizado para incluir interações para Microsoft Copilot para Microsoft 365.

Para obter informações detalhadas sobre esse trabalho de retenção, consulte Saiba mais sobre retenção para Microsoft Copilot para Microsoft 365.

Como acontece com todas as políticas de retenção e retenção, se mais de uma política para o mesmo local se aplicar a um usuário, os princípios de retenção resolve quaisquer conflitos. Por exemplo, os dados são retidos pela maior duração de todas as políticas de retenção aplicadas ou de proteção eletrônica.

Para que os rótulos de retenção mantenham automaticamente os arquivos referenciados em Copilot, selecione a opção para anexos de nuvem com uma política de rótulo de retenção de aplicação automática: aplicar rótulo a anexos de nuvem e links compartilhados no Exchange, Teams, Viva Engage e Copilot. Como acontece com todos os anexos de nuvem retidos, a versão do arquivo no momento em que é referenciada é mantida.

Opção de anexos de nuvem atualizados para o rótulo de retenção de aplicação automática para incluir interações para Copilot.

Para obter informações detalhadas sobre como essa retenção funciona, consulte Como a retenção funciona com anexos de nuvem.

Para instruções de configuração:

Outra documentação para o hub de IA e Copilot

Anúncio de postagem no blog: proteja seus dados para aproveitar com confiança a IA generativa com o Microsoft Purview

Para obter informações mais detalhadas, confira Considerações para o Microsoft Purview AI Hub e proteções de conformidade e segurança de dados para o Microsoft Copilot.

Microsoft Copilot para Microsoft 365: