Share via


Dados, privacidade e segurança do Microsoft Copilot para Microsoft 365

O Microsoft Copilot para Microsoft 365 é um mecanismo sofisticado de processamento e orquestração que fornece recursos de produtividade da plataforma AI, coordenando os seguintes componentes:

  • LLMs (modelos de linguagem grandes)
  • Conteúdo no Microsoft Graph, como emails, chats e documentos que você tem permissão para acessar.
  • Os aplicativos do Microsoft 365 que você usa todos os dias, como Word e PowerPoint.

Para obter uma visão geral de como esses três componentes funcionam juntos, consulte Visão geral do Microsoft Copilot para Microsoft 365. Para obter links para outros conteúdos relacionados ao Microsoft Copilot para Microsoft 365, consulte a documentação do Microsoft Copilot para Microsoft 365.

Importante

  • O Microsoft Copilot para Microsoft 365 está em conformidade com nossos compromissos existentes de privacidade, segurança e conformidade com os clientes comerciais do Microsoft 365, incluindo o Regulamento Geral sobre a Proteção de Dados (GDPR) e a Fronteira de Dados da União Europeia (UE).
  • Prompts, respostas e dados acessados por meio do Microsoft Graph não são usados para treinar LLMs de fundação, incluindo aqueles utilizados pelo Microsoft Copilot para Microsoft 365.

As informações neste artigo destinam-se a ajudar a fornecer respostas para as seguintes perguntas:

Observação

O Microsoft Copilot para Microsoft 365 continuará evoluindo ao longo do tempo com novas funcionalidades. Para manter-se atualizado sobre o Microsoft Copilot para Microsoft 365 ou fazer perguntas, visite a comunidade Microsoft 365 Copilot na Microsoft Tech Community.

Como o Microsoft Copilot para Microsoft 365 utiliza seus dados organizacionais proprietários?

O Microsoft Copilot para Microsoft 365 agrega valor ao conectar LLMs aos seus dados organizacionais. O Microsoft Copilot para Microsoft 365 acessa o conteúdo e o contexto por meio do Microsoft Graph. Ele pode gerar respostas ancoradas em seus dados organizacionais, como documentos do usuário, emails, calendário, chats, reuniões e contatos. O Microsoft Copilot para Microsoft 365 combina esse conteúdo com o contexto de trabalho do usuário, como a reunião em que o usuário está agora, as trocas de email que o usuário teve sobre um tópico ou as conversas de chat que o usuário teve na semana passada. O Microsoft Copilot para Microsoft 365 usa essa combinação de conteúdo e contexto para ajudar a fornecer respostas precisas, relevantes e contextuais.

Importante

Prompts, respostas e dados acessados por meio do Microsoft Graph não são usados para treinar LLMs de fundação, incluindo aqueles utilizados pelo Microsoft Copilot para Microsoft 365.

O Microsoft Copilot para Microsoft 365 só apresenta dados organizacionais para os quais os usuários individuais têm pelo menos permissões de visualização. É importante usar os modelos de permissão disponíveis nos serviços do Microsoft 365, como o SharePoint, para ajudar a garantir que os usuários ou os grupos adequados tenham o acesso correto ao conteúdo certo em sua organização. Isso inclui as permissões que você concede a usuários fora da sua organização por meio de soluções de colaboração entre locatários, como canais compartilhados no Microsoft Teams.

Quando você insere prompts utilizando o Microsoft Copilot para Microsoft 365, as informações contidas em seus prompts, os dados que eles recuperam e as respostas geradas permanecem dentro dos limites do serviço Microsoft 365, de acordo com nossos compromissos atuais de privacidade, segurança e conformidade. O Microsoft Copilot para Microsoft 365 usa os serviços do OpenAI do Azure para processamento, não os serviços disponíveis publicamente do OpenAI. A IA aberta do Azure não armazena em cache o conteúdo do cliente e os prompts modificados do Copilot para Copilot para Microsoft 365.

Observação

Ao utilizar o Microsoft Copilot para Microsoft 365, os dados da sua organização podem deixar o marco de delimitação do serviço Microsoft 365 nas seguintes circunstâncias:

  • Quando você estiver utilizando plug-ins para ajudar Microsoft Copilot para Microsoft 365 a fornecer informações mais relevantes. Verifique a política de privacidade e os termos de uso do plug-in para determinar como ele tratará os dados de sua organização. Para obter informações, consulte Extensibilidade do Microsoft Copilot para Microsoft 365.
  • Quando você estiver usando o plug-in de conteúdo da Web para aprimorar as respostas de chat, o Copilot para Microsoft 365 gerará uma consulta de pesquisa que será enviada ao Bing para obter as informações mais recentes da Web. Para obter mais informações, Microsoft Copilot para Microsoft 365 e o plug-in de conteúdo da Web.

O monitoramento de abusos do Microsoft Copilot para Microsoft 365 ocorre em tempo real, sem fornecer à Microsoft qualquer acesso permanente aos dados do cliente, seja para revisão humana ou automatizada. Embora a moderação de abuso, que inclui a revisão humana do conteúdo, esteja disponível no OpenAI do Azure, os serviços do Microsoft Copilot para Microsoft 365 optaram por não usá-la. Os dados do Microsoft 365 não são coletados nem armazenados pelo OpenAI do Azure.

Observação

Podemos usar os comentários dos clientes, que são opcionais, para aprimorar o Microsoft Copilot para Microsoft 365, assim como usamos os comentários dos clientes para aprimorar outros serviços do Microsoft 365 e aplicativos do Microsoft 365. Não utilizamos esse comentário para treinar os LLMs de base usados pelo Microsoft Copilot para Microsoft 365. Os clientes podem gerenciar comentários por meio de controles de administrador. Para obter mais informações, consulte Gerenciar comentários da Microsoft para sua organização e Fornecer comentários sobre o Microsoft Copilot para Microsoft 365.

Dados armazenados sobre as interações do usuário com o Microsoft Copilot para Microsoft 365

Quando um usuário interage com o Microsoft Copilot para aplicativos do Microsoft 365 (como Word, PowerPoint, Excel, OneNote, Loop ou Whiteboard), armazenamos dados sobre essas interações. Os dados armazenados incluem o prompt do usuário e a resposta do Copilot, incluindo citações a qualquer informação utilizada para aterrar a resposta do Copilot. Nos referimos ao prompt do usuário e à resposta do Copilot a esse prompt como o "conteúdo das interações" e o registro dessas interações é o histórico de interações do Copilot do usuário. Por exemplo, esses dados armazenados fornecem aos usuários o histórico de interações com o Copilot no Microsoft Copilot com chat fundamentado em Grafo e reuniões no Microsoft Teams. Esses dados são processados e armazenados de acordo com os compromissos contratuais com outros conteúdos da sua organização no Microsoft 365. Os dados são criptografados enquanto são armazenados e não são utilizados para treinar LLMs de base, incluindo aqueles usados pelo Microsoft Copilot para Microsoft 365.

Para exibir e gerenciar esses dados armazenados, os administradores podem utilizar a Pesquisa de conteúdo ou o Microsoft Purview. Os administradores também podem utilizar o Microsoft Purview para definir políticas de retenção para os dados relacionados às interações de chat com Copilot. Para saber mais, confira os seguintes artigos:

Para chats do Microsoft Teams com o Copilot, os administradores também podem utilizar as APIs de exportação do Microsoft Teams para exibir os dados armazenados.

Excluindo o histórico de interações do usuário com Microsoft Copilot para Microsoft 365

Seus usuários podem excluir o histórico de interações com o Copilot, que inclui os prompts e as respostas retornadas pelo Copilot, acessando o portal Minha Conta. Para obter mais informações, confira Excluir seu histórico de interações com o Microsoft Copilot.

Microsoft 365 Copilot e a Fronteira de Dados da UE

As chamadas do Microsoft Copilot para Microsoft 365 para o LLM são roteadas para os data centers mais próximos na região, mas também podem fazer chamadas para outras regiões nas quais a capacidade estiver disponível durante períodos de alta utilização.

Para os usuários da União Europeia (UE), tomamos medidas adicionais para cumprir a Fronteira de dados da UE. O tráfego da UE permanece dentro da Fronteira de Dados da UE, enquanto o tráfego mundial pode ser enviado para a Europa e outros países ou regiões para processamento de LLM.

Microsoft Copilot para Microsoft 365 e residência de dados

O Copilot para Microsoft 365 está cumprindo os compromissos de residência de dados conforme descrito nos Termos do Produto Microsoft e no Adendo de Proteção de Dados. O Copilot para Microsoft 365 foi adicionado como uma carga de trabalho coberta nos compromissos de residência de dados nos Termos de Produto da Microsoft em 1º de março de 2024.

As ofertas do Microsoft Advanced Data Residency (ADR) e Multi-Geo Capabilities incluem compromissos de residência de dados para clientes do Copilot para Microsoft 365 a partir de 1º de março de 2024. Para clientes da UE, Copilot para Microsoft 365 é um serviço de Fronteira de Dados da UE. Os clientes fora da UE podem ter suas consultas processadas nos EUA, UE ou outras regiões.

Microsoft Copilot para Microsoft 365 e o plug-in de conteúdo da Web

Copilot para Microsoft 365 tem a opção de aprimorar as respostas de chat com as informações mais recentes da Web. Quando o plug-in de conteúdo da Web estiver habilitado, o Copilot poderá buscar informações do índice de pesquisa do Bing quando Copilot determinar que as informações da Web ajudarão a fornecer uma resposta melhor e mais fundamentada.

Os controles da administração e a alternância no nível do usuário estão disponíveis para gerenciar se o plug-in de conteúdo da Web estará habilitado no seu ambiente.

Como funciona o plug-in de conteúdo da Web

Quando o plug-in de conteúdo da Web é ativado no bate-papo, o Copilot para Microsoft 365 analisa o prompt do usuário e identifica os termos em que o embasamento da Web pode melhorar a qualidade da resposta. Com base nesses termos, o Copilot gera uma consulta de pesquisa que é enviada para a API de pesquisa do Bing solicitando mais informações. Essa consulta de pesquisa é diferente do prompt do usuário, geralmente consiste em algumas palavras informadas pelo prompt do usuário e/ou pelos dados do Microsoft 365. Ele não inclui automaticamente a totalidade dos documentos do Microsoft 365 associados ao prompt.

A tabela a seguir fornece um exemplo do prompt de um usuário, das consultas de pesquisa enviadas e da resposta do Copilot.

Entidade Texto
Prompt (conforme escrito pelo usuário) Estamos considerando uma possível aquisição da Fabrikam. Ajude-me a elaborar um relatório de resumo de 200 palavras com informações financeiras disponíveis publicamente sobre a empresa, incluindo sua estratégia de negócios.
Consultas de pesquisa (geradas pelo Copilot e enviadas para a API de pesquisa do Bing) Estratégia da Fabrikam
Finanças da Fabrikam
Resposta (gerada pelo Copilot) A Fabrikam é uma Startup de CPG que oferece alternativas de alimentos mais saudáveis, mas com o mesmo sabor familiar das marcas tradicionais. A empresa arrecadou USD 4,5 milhões em financiamento inicial em 2019 e levantou USD 31,5 milhões em uma rodada de financiamento da série B em 2022. Em janeiro de 2023, a Fabrikam arrecadou um total de USD 83,4 milhões em financiamento e tem como meta mais do que dobrar suas vendas este ano.

Com a chegada da pandemia, a Fabrikam enfrentou o desafio de mudar das lojas físicas para as vendas online, e foi aí que sua estratégia de marketing de influenciadores entrou em ação. Em vez de depender de eventos e promoções na loja, a Fabrikam recorreu às mídias sociais e às parcerias com influenciadores para aumentar o reconhecimento da marca e alcançar um público maior. A empresa também abordou a inovação de um ângulo genuíno, equilibrando os fatores de consumo tradicionais com ofertas melhores para você e com uma estratégia de distribuição holística e robusta.

Em resumo, a Fabrikam arrecadou mais de USD 55 milhões em financiamento e tem uma sólida estratégia de marketing de influenciadores que a ajudou a migrar para as vendas online durante a pandemia.

Neste exemplo, apenas as duas consultas de pesquisa são enviadas para a API Pesquisa do Bing. Depois que o usuário inserir seu prompt, a experiência de chat exibirá todas as consultas geradas e enviadas ao Bing. Os prompts do usuário e as respostas do Copilot são armazenados no Microsoft 365. As consultas de pesquisa enviadas à API de Pesquisa do Bing pelo Copilot para Microsoft 365 são desassociadas da ID do usuário e da ID do locatário.

A API de pesquisa do Bing é fornecida pelo Bing.com, que opera separadamente do Microsoft 365 e tem práticas diferentes de tratamento de dados. O uso do Bing é coberto pelo Contrato de Serviços da Microsoft entre cada usuário e a Microsoft, juntamente com a Política de Privacidade da Microsoft. O Adendo de Proteção de Dados de Produtos e Serviços da Microsoft (DPA) não se aplica ao uso do plug-in de conteúdo da Web ou da API de Pesquisa do Bing.

Controles disponíveis para gerenciar o uso de conteúdo da Web

Os administradores podem bloquear o acesso ao conteúdo da Web no Copilot para Microsoft 365. Para obter mais informações, consulte Gerenciar o acesso ao conteúdo da Web nas respostas do Microsoft Copilot para Microsoft 365. Mesmo quando permitido pelo administrador, os usuários ainda têm a opção de utilizar ou não o plug-in da Web. Para obter mais informações, consulte Usar fontes de dados adicionais com o Microsoft 365 Copilot.

Observação

As configurações de política que controlam o uso de experiências conectadas opcionais nos Aplicativos do Microsoft 365 não se aplicam ao Microsoft Copilot para Microsoft 365 e ao conteúdo da Web.

Extensibilidade do Microsoft Copilot para Microsoft 365

Embora o Microsoft Copilot para Microsoft 365 já seja capaz de usar os aplicativos e dados do ecossistema do Microsoft 365, muitas organizações ainda dependem de várias ferramentas e serviços externos para o gerenciamento e a colaboração do trabalho. As experiências do Microsoft Copilot para Microsoft 365 podem fazer referência a ferramentas e serviços de terceiros ao responder à solicitação de um usuário usando conectores do Microsoft Graph ou plug-ins. Os dados dos conectores do Graph podem ser retornados nas respostas do Microsoft Copilot para Microsoft 365 se o usuário tiver permissão para acessar essas informações.

Quando os plug-ins estão habilitados, Microsoft Copilot para Microsoft 365 determina se ele precisa utilizar um plug-in específico para ajudar a fornecer uma resposta relevante ao usuário. Se um plug-in for necessário, Microsoft Copilot para Microsoft 365 gerará uma consulta de pesquisa para enviar ao plug-in em nome do usuário. A consulta é baseada no prompt do usuário, no histórico de interações com o Copilot e nos dados aos quais o usuário tem acesso no Microsoft 365.

Na seção Aplicativos integrados do Centro de administração do Microsoft 365, os administradores podem exibir as permissões e o acesso aos dados exigidos por um plug-in, bem como os termos de uso e a política de privacidade do plug-in. Os administradores têm controle total para selecionar quais plug-ins são permitidos em sua organização. Um usuário só pode acessar os plug-ins permitidos pelo administrador e que o usuário instalou ou foi atribuído. Microsoft Copilot para Microsoft 365 só utiliza os plug-ins ativados pelo usuário.

Observação

As configurações de política que controlam o uso de experiências conectadas opcionais no Microsoft 365 Apps não se aplicam a plug-ins.

Para saber mais, confira os seguintes artigos:

Como o Microsoft Copilot para Microsoft 365 protege os dados organizacionais?

O modelo de permissões dentro do locatário do Microsoft 365 pode ajudar a garantir que os dados não vazem involuntariamente entre usuários, grupos e locatários. O Microsoft Copilot para Microsoft 365 apresenta apenas os dados que cada indivíduo pode acessar utilizando os mesmos controles subjacentes de acesso a dados usados em outros serviços do Microsoft 365. O Índice Semântico respeita o limite de acesso baseado na identidade do usuário para que o processo de fundamentação acesse apenas o conteúdo que o usuário atual está autorizado a acessar. Para obter mais informações, consulte a política de privacidade e a documentação do serviço da Microsoft.

Quando você tem dados criptografados pela Proteção de Informações do Microsoft Purview, o Microsoft Copilot para Microsoft 365 honra os direitos de uso concedidos ao usuário. Essa criptografia pode ser aplicada por rótulos de confidencialidade ou por permissões restritas em aplicativos do Microsoft 365 usando o IRM (Gerenciamento de Direitos de Informação) Para obter mais informações sobre como usar o Microsoft Purview com Microsoft Copilot para Microsoft 365, consulte Proteções de conformidade e segurança de dados do Microsoft Purview para aplicativos de IA generativos.

Já implementamos várias formas de proteção para ajudar a impedir que os clientes comprometam os serviços e aplicativos do Microsoft 365 ou obtenham acesso não autorizado a outros locatários ou ao próprio sistema do Microsoft 365. Aqui estão alguns exemplos dessas formas de proteção:

  • O isolamento lógico do conteúdo do cliente em cada locatário dos serviços do Microsoft 365 é obtido por meio da autorização do Microsoft Entra e do controle de acesso baseado em função. Para obter mais informações, confira Controles de isolamento do Microsoft 365.

  • A Microsoft usa segurança física rigorosa, triagem em segundo plano e uma estratégia de criptografia em várias camadas para proteger a confidencialidade e integridade do conteúdo do cliente.

  • O Microsoft 365 usa tecnologias do lado do serviço que criptografam o conteúdo do cliente em repouso e em trânsito, incluindo BitLocker, criptografia por arquivo, protocolo TLS e Protocolo IPsec. Para obter detalhes específicos sobre criptografia no Microsoft 365, consulte Criptografia do Microsoft Cloud.

  • Seu controle sobre os dados é reforçado pelo compromisso da Microsoft de cumprir leis de privacidade amplamente aplicáveis, como o GDPR, e padrões de privacidade, como o ISO/IEC 27018, o primeiro código internacional de prática para privacidade na nuvem do mundo.

  • Para o conteúdo acessado por meio dos plug-ins do Microsoft Copilot para Microsoft 365, a criptografia pode excluir o acesso programático, limitando assim o plug-in de acessar o conteúdo. Para obter mais informações, consulte Configurar direitos de uso para Proteção de Informações do Azure.

Atender aos requisitos de conformidade regulatória

À medida que a regulação no espaço de IA evolui, a Microsoft continuará se adaptando e agindo para atender aos requisitos regulatórios futuros.

O Microsoft Copilot para Microsoft 365 foi desenvolvido com base nos compromissos atuais da Microsoft com a segurança e a privacidade dos dados na empresa. Não há nenhuma alteração nesses compromissos. O Microsoft Copilot para Microsoft 365 está integrado ao Microsoft 365 e segue todos os compromissos de privacidade, segurança e conformidade existentes com os clientes comerciais do Microsoft 365. Para saber mais, confira Conformidade da Microsoft.

Além de aderir às regulamentações, priorizamos um diálogo aberto com nossos clientes, parceiros e autoridades regulatórias para entender e resolver melhor as preocupações, promovendo assim um ambiente de confiança e cooperação. Reconhecemos que privacidade, segurança e transparência não são apenas recursos, mas pré-requisitos em um ambiente controlado por IA na Microsoft.

Informações adicionais

Microsoft Copilot para Microsoft 365 e configurações de política para experiências conectadas

Se você desabilitar as experiências conectadas que analisam o conteúdo do Microsoft 365 Apps em dispositivos Windows ou Mac na sua organização, os recursos do Microsoft Copilot para Microsoft 365 não estarão disponíveis para seus usuários nos seguintes aplicativos:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Da mesma forma, os recursos do Microsoft Copilot para Microsoft 365 nesses aplicativos em dispositivos Windows ou Mac não estarão disponíveis se você desativar o uso de experiências conectadas no Microsoft 365 Apps.

Para obter mais informações sobre essas configurações de política, consulte os seguintes artigos:

Sobre o conteúdo que o Microsoft Copilot para Microsoft 365 cria

As respostas que a IA generativa produz não são garantidas como 100% factuais. Enquanto continuamos a melhorar as respostas, os usuários ainda devem analisar a saída antes de enviá-las para outras pessoas. Nossos recursos do Microsoft Copilot para Microsoft 365 fornecem rascunhos e resumos úteis para ajudar você a fazer mais, oferecendo a oportunidade de revisar a IA gerada, em vez de automatizar totalmente essas tarefas.

Continuamos aprimorando os algoritmos para resolver problemas de forma proativa, como desinformação, bloqueio de conteúdo, segurança de dados e prevenção da promoção de conteúdo prejudicial ou discriminatório de acordo com nossos princípios de IA responsável.

A Microsoft não reivindica a propriedade da saída do serviço. Dito isso, não determinamos se a produção de um cliente é protegida por direitos autorais ou aplicável contra outros usuários. Isso ocorre porque os sistemas de IA generativa podem produzir respostas semelhantes aos prompts ou consultas semelhantes de vários clientes. Consequentemente, vários clientes podem ter ou reivindicar direitos no conteúdo que seja o mesmo ou substancialmente semelhante.

Se um terceiro processar um cliente comercial por violação de direitos autorais pelo uso dos Copilots da Microsoft ou do resultado que eles geram, defenderemos o cliente e pagaremos o valor de quaisquer julgamentos adversos ou acordos resultantes da ação judicial, desde que o cliente tenha usado o grades de proteção e filtros de conteúdo que incorporamos em nossos produtos. Para obter mais informações, confira Microsoft anuncia novo Compromisso de Direitos Autorais do Copilot para clientes.

Compromisso com a IA responsável

Como a IA está pronta para transformar nossas vidas, devemos definir coletivamente novas regras, normas e práticas para o uso e o impacto dessa tecnologia. A Microsoft está em uma jornada de IA responsável desde 2017, quando definimos nossos princípios e abordagem para garantir que essa tecnologia seja usada de uma maneira orientada por princípios éticos que priorizam as pessoas.

Na Microsoft, somos guiados por nossos princípios de IA, nosso Padrão de IA responsável e décadas de pesquisa sobre IA, fundamentação e aprendizado de máquina com preservação de privacidade. Uma equipe multidisciplinar de pesquisadores, engenheiros e especialistas em política examina nossos sistemas de IA para encontrar possíveis danos e mitigações: refinar dados de treinamento, filtrar para limitar conteúdo prejudicial, tópicos confidenciais de bloqueio de consultas e resultados e aplicar tecnologias da Microsoft como InterpretML e Fairlearn para ajudar a detectar e corrigir viés de dados. Deixamos claro como o sistema toma decisões observando limitações, vinculando-se a fontes e levando os usuários a revisar, verificar os fatos e ajustar o conteúdo com base na experiência do assunto. Para obter mais informações, consulte Gerenciar IA: um blueprint para o futuro.

Nosso objetivo é ajudar nossos clientes a usar nossos produtos de IA de forma responsável, compartilhando nossos aprendizados e criando parcerias baseadas em confiança. Para esses novos serviços, queremos oferecer aos nossos clientes informações sobre uso, recursos e limitações pretendidos do nosso serviço de plataforma de IA, para que eles tenham o conhecimento necessário para fazer escolhas de implantação responsáveis. Também compartilhamos recursos e modelos com desenvolvedores dentro de organizações e com ISVs (fornecedores independentes de software), para ajudá-los a criar soluções de IA eficazes, seguras e transparentes.