Share via


Dados, Privacidade e Segurança do Microsoft Copilot para o Microsoft 365

O Microsoft Copilot para o Microsoft 365 é um motor de processamento e orquestração sofisticado que fornece capacidades de produtividade com tecnologia de IA ao coordenar os seguintes componentes:

  • Modelos de linguagem grandes (LLMs)
  • Conteúdos no Microsoft Graph, como e-mails, chats e documentos a que tem permissão para aceder.
  • As aplicações do Microsoft 365 que utiliza todos os dias, como o Word e o PowerPoint.

Para obter uma descrição geral de como esses três componentes funcionam em conjunto, consulte a descrição geral do Microsoft Copilot para o Microsoft 365. Para obter ligações para outros conteúdos relacionados com o Microsoft Copilot para o Microsoft 365, consulte a documentação do Microsoft Copilot para o Microsoft 365.

Importante

  • O Microsoft Copilot para o Microsoft 365 está em conformidade com os nossos compromissos de privacidade, segurança e conformidade existentes com os clientes comerciais do Microsoft 365, incluindo o Regulamento Geral Sobre a Proteção de Dados (RGPD) e o Data Boundary da União Europeia (EU).
  • Os pedidos, respostas e dados acedidos através do Microsoft Graph não são utilizados para preparar LLM de base, incluindo os utilizados pelo Microsoft Copilot para o Microsoft 365.

As informações neste artigo destinam-se a ajudar a fornecer respostas às seguintes perguntas:

Nota

O Microsoft Copilot para o Microsoft 365 continuará a evoluir ao longo do tempo com novas capacidades. Para se manter atualizado sobre o Microsoft Copilot para o Microsoft 365 ou fazer perguntas, visite a comunidade do Microsoft 365 Copilot na Microsoft Tech Community.

Como é que o Microsoft Copilot para o Microsoft 365 utiliza os seus dados organizacionais proprietários?

O Microsoft Copilot para o Microsoft 365 oferece valor ao ligar LLM aos seus dados organizacionais. O Microsoft Copilot para o Microsoft 365 acede ao conteúdo e ao contexto através do Microsoft Graph. Pode gerar respostas ancoradas nos seus dados organizacionais, como documentos de utilizador, e-mails, calendário, conversas, reuniões e contactos. O Microsoft Copilot para o Microsoft 365 combina este conteúdo com o contexto de trabalho do utilizador, como a reunião em que o utilizador está agora, as trocas de e-mail que o utilizador teve num tópico ou as conversas de chat que o utilizador teve na semana passada. O Microsoft Copilot para o Microsoft 365 utiliza esta combinação de conteúdo e contexto para ajudar a fornecer respostas precisas, relevantes e contextuais.

Importante

Os pedidos, respostas e dados acedidos através do Microsoft Graph não são utilizados para preparar LLM de base, incluindo os utilizados pelo Microsoft Copilot para o Microsoft 365.

O Microsoft Copilot para o Microsoft 365 só apresenta dados organizacionais para os quais os utilizadores individuais têm, pelo menos, permissões de visualização. É importante que esteja a utilizar os modelos de permissão disponíveis nos serviços do Microsoft 365, como o SharePoint, para ajudar a garantir que os utilizadores ou grupos corretos têm o acesso correto aos conteúdos corretos na sua organização. Isto inclui permissões que concede a utilizadores fora da sua organização através de soluções de colaboração entre inquilinos, tais como canais partilhados no Microsoft Teams.

Quando introduz pedidos com o Microsoft Copilot para o Microsoft 365, as informações contidas nos seus pedidos, os dados que estes obtêm, bem como as respostas geradas permanecem dentro do limite do serviço do Microsoft 365, em conformidade com os nossos compromissos atuais de privacidade, segurança e conformidade. O Microsoft Copilot para o Microsoft 365 utiliza os serviços do Azure OpenAI para processamento e não os serviços publicamente disponíveis do OpenAI. O OpenAI do Azure não armazena em cache o conteúdo do cliente e os pedidos modificados do Copilot para o Copilot para o Microsoft 365.

Nota

Ao utilizar o Microsoft Copilot para o Microsoft 365, os dados da sua organização podem deixar o limite de serviço do Microsoft 365 nas seguintes circunstâncias:

  • Quando estiver a utilizar plug-ins para ajudar o Microsoft Copilot para o Microsoft 365 a fornecer informações mais relevantes. Verifique a declaração de privacidade e os termos de utilização do plug-in para determinar como este irá tratar os dados da sua organização. Para mais informações, consulte Extensibilidade do Microsoft Copilot para o Microsoft 365.
  • Quando estiver a utilizar o plug-in de conteúdo Web para melhorar as respostas do chat, o Copilot para o Microsoft 365 irá gerar uma consulta de pesquisa enviada para o Bing para obter as informações mais recentes da Web. Para obter mais informações, Microsoft Copilot para Microsoft 365 e o plug-in de conteúdo Web.

A monitorização de abusos para o Microsoft Copilot para o Microsoft 365 ocorre em tempo real, sem fornecer à Microsoft qualquer acesso permanente aos dados dos clientes, seja para análise humana ou automatizada. Embora a moderação de abusos, que inclui a revisão humana do conteúdo, esteja disponível no Azure OpenAI, os serviços do Microsoft Copilot para o Microsoft 365 optaram por não a utilizar. Os dados do Microsoft 365 não são recolhidos nem armazenados pelo Azure OpenAI.

Nota

Podemos utilizar o feedback dos clientes, que é opcional, para melhorar o Microsoft Copilot para o Microsoft 365, tal como utilizamos o feedback dos clientes para melhorar outros serviços do Microsoft 365 e de aplicações do Microsoft 365. Não utilizamos este feedback para preparar os LLM de base utilizados pelo Microsoft Copilot para o Microsoft 365. Os clientes podem gerir o feedback através de controlos de administração. Para obter mais informações, consulte Gerir o feedback da Microsoft para a sua organização e Fornecer feedback sobre o Microsoft Copilot para o Microsoft 365.

Dados armazenados sobre as interações do utilizador com o Microsoft Copilot para o Microsoft 365

Quando um utilizador interage com o Microsoft Copilot para aplicações do Microsoft 365 (como Word, PowerPoint, Excel, OneNote, Loop ou Whiteboard), armazenamos dados sobre estas interações. Os dados armazenados incluem o pedido do utilizador e a resposta do Copilot, incluindo citações de qualquer informação utilizada para fundamentar a resposta do Copilot. Referimo-nos ao pedido do utilizador e à resposta do Copilot a esse pedido como o "conteúdo das interacções" e o registo dessas interacções é o histórico de interacções do Copilot do utilizador. Por exemplo, estes dados armazenados fornecem aos utilizadores o histórico de interações do Copilot no Microsoft Copilot com chat fundamentado no Graph e reuniões no Microsoft Teams. Estes dados são processados e armazenados em conformidade com os compromissos contratuais com os outros conteúdos da sua organização no Microsoft 365. Os dados são encriptados enquanto estão armazenados e não são utilizados para preparar LLMs de base, incluindo os utilizados pelo Microsoft Copilot para o Microsoft 365.

Para ver e gerir estes dados armazenados, os administradores podem utilizar a Pesquisa de Conteúdo ou o Microsoft Purview. Os administradores também podem utilizar o Microsoft Purview para definir políticas de retenção para os dados relacionados com as interações de chat com o Copilot. Para mais informações, consulte os seguintes artigos:

Para conversas do Microsoft Teams com o Copilot, os administradores também podem utilizar as APIs de Exportação do Microsoft Teams para ver os dados armazenados.

Eliminação do histórico de interações do utilizador com o Microsoft Copilot para o Microsoft 365

Os seus utilizadores podem eliminar o respetivo histórico de interação com o Copilot, que inclui os pedidos e as respostas devolvidas pelo Copilot, ao aceder ao portal A Minha Conta. Para obter mais informações, consulte Eliminar o seu histórico de interação com o Microsoft Copilot.

Microsoft Copilot para o Microsoft 365 e EU Data Boundary

As chamadas do Microsoft Copilot para o Microsoft 365 para o LLM são encaminhadas para os data centers mais próximos na região, mas também podem chamar para outras regiões onde a capacidade está disponível durante períodos de utilização elevada.

Para os utilizadores da União Europeia (UE), temos salvaguardas adicionais para cumprir com o EU Data Boundary. O tráfego da UE permanece dentro da Fronteira de Dados da UE, enquanto o tráfego mundial pode ser enviado para a UE e outros países ou regiões para processamento de LLM.

Microsoft Copilot para o Microsoft 365 e residência dos dados

O Copilot para o Microsoft 365 cumpre os compromissos de residência de dados, conforme descrito nos Termos do Produto Microsoft e na Adenda de Proteção de Dados. O Copilot para Microsoft 365 foi adicionado como uma carga de trabalho abrangida nos compromissos de residência de dados nos Termos de Produto da Microsoft a 1 de março de 2024.

As ofertas de Residência Avançada de Dados (ADR) e Multi-Geo Capabilities da Microsoft incluem compromissos de residência de dados para clientes do Copilot para o Microsoft 365 a partir de 1 de março de 2024. Para os clientes da UE, o Copilot para o Microsoft 365 é um serviço EU Data Boundary. As consultas dos clientes fora da UE podem ser processadas nos EUA, na UE ou noutras regiões.

Microsoft Copilot para o Microsoft 365 e o plug-in de conteúdo Web

Copilot para o Microsoft 365 tem a opção de melhorar as respostas de chat com as informações mais recentes da Web. Quando o plug-in de conteúdo Web está ativado, o Copilot pode obter informações do índice de pesquisa do Bing quando o Copilot determina que as informações da Web irão ajudar a fornecer uma resposta melhor e mais baseada.

Os controlos de administrador e o botão de alternar a nível do utilizador estão disponíveis para gerir se o plug-in de conteúdo Web está ativado no seu ambiente.

Como funciona o plug-in de conteúdo Web

Quando o plug-in de conteúdo Web está ativado no chat, o Copilot para Microsoft 365 analisará o pedido do utilizador e identificará os termos em que a fundamentação na Web poderia melhorar a qualidade da resposta. Com base nesses termos, o Copilot gera uma consulta de pesquisa que é enviada à API de Pesquisa do Bing a pedir mais informações. Esta consulta de pesquisa é diferente do pedido do utilizador, normalmente consiste em algumas palavras informadas pelo pedido do utilizador e/ou dados do Microsoft 365. Não inclui automaticamente a totalidade dos documentos do Microsoft 365 associados ao pedido.

A tabela seguinte fornece um exemplo de um pedido de utilizador, a consulta de pesquisa enviada e a resposta do Copilot.

Entidade Text
Pedido (conforme escrito pelo utilizador) Estamos a considerar uma possível aquisição da Fabrikam. Ajude-me a reunir um relatório de resumo de 200 palavras de informações financeiras disponíveis publicamente na empresa, incluindo a sua estratégia empresarial.
Consultas de pesquisa (geradas pelo Copilot e enviadas à API de pesquisa do Bing) Estratégia da Fabrikam
Finanças da Fabrikam
Resposta (gerada pelo Copilot) A Fabrikam é uma startup CPG que oferece alternativas alimentares mais saudáveis mas com o mesmo gosto familiar que as marcas tradicionais. A empresa recolheu $4,5 milhões em financiamento inicial em 2019 e angariou $31,5 milhões numa ronda de financiamento de série B em 2022. A partir de janeiro de 2023, a Fabrikam angariou um total de $83,4 milhões em financiamento e está no objetivo de mais do que dobrar as vendas este ano.

Com a chegada da pandemia, a Fabrikam enfrentou um desafio de passar das lojas físicas para vendas online e foi aí que a sua estratégia de marketing de influenciadores entrou em ação. Em vez de depender de eventos e promoções na loja, a Fabrikam recorreu às redes sociais e parcerias de influenciadores para aumentar o reconhecimento da marca e alcançar um público mais amplo. A empresa também aborda a inovação a partir de um ângulo genuíno, equilibrando os fatores de consumo tradicionais com ofertas melhores para si e tendo uma estratégia de distribuição holística e robusta.

Em resumo, a Fabrikam angariou mais de 55 milhões de dólares em financiamento e tem uma forte estratégia de marketing de influenciadores que os ajudou a fazer a transição para vendas online durante a pandemia.

Neste exemplo, apenas as duas consultas de pesquisa são enviadas à API de Pesquisa do Bing. Depois de o utilizador introduzir o seu pedido, a experiência de chat apresentará todas as consultas que estão a ser geradas e enviadas para o Bing. Os pedidos de utilizador e as resposta do Copilot são armazenados no Microsoft 365. As consultas de pesquisa enviadas à API de Pesquisa do Bing pelo Copilot para o Microsoft 365 são desassociadas do ID de utilizador e do ID de inquilino.

A API de Pesquisa do Bing é fornecida pelo Bing.com, que funciona separadamente do Microsoft 365 e tem diferentes práticas de tratamento de dados. A utilização do Bing está abrangida pelo Contrato de Serviços da Microsoft entre cada utilizador e a Microsoft, juntamente com a Declaração de Privacidade da Microsoft. A Adenda de Proteção de Dados de Produtos e Serviços Microsoft (APD) não se aplica à utilização do plug-in de conteúdo Web ou da API de Pesquisa do Bing.

Controlos disponíveis para gerir a utilização de conteúdos Web

Os administradores podem bloquear o acesso aos conteúdos Web no Copilot para o Microsoft 365. Para obter mais informações, consulte Gerir o acesso a conteúdo Web nas respostas do Microsoft Copilot para Microsoft 365. Mesmo quando permitido pelo administrador, os utilizadores continuam a ter a opção de utilizar ou não o plug-in da Web. Para obter mais informações, consulte Utilizar origens de dados adicionais com Microsoft 365 Copilot.

Nota

As configurações de política que controlam o uso de experiências ligadas opcionais no Microsoft 365 Apps não se aplicam ao Microsoft Copilot para Microsoft 365 e ao conteúdo da Web.

Extensibilidade do Microsoft Copilot para o Microsoft 365

Embora o Microsoft Copilot para o Microsoft 365 já consiga utilizar as aplicações e os dados no ecossistema do Microsoft 365, muitas organizações ainda dependem de várias ferramentas e serviços externos para a gestão e colaboração de trabalho. As experiências do Microsoft Copilot para o Microsoft 365 podem referenciar ferramentas e serviços de terceiros ao responder ao pedido de um utilizador através de conectores do Microsoft Graph ou plug-ins. Os dados dos conectores do Graph podem ser devolvidos em respostas do Microsoft Copilot para o Microsoft 365 se o utilizador tiver permissão para aceder a essas informações.

Quando os plug-ins estão ativados, o Microsoft Copilot para o Microsoft 365 determina se precisa de utilizar um plug-in específico para ajudar a fornecer uma resposta relevante ao utilizador. Se for necessário um plug-in, o Microsoft Copilot para o Microsoft 365 gera uma consulta de pesquisa para enviar para o plug-in em nome do utilizador. Essa consulta baseia-se no pedido do utilizador, no histórico de interações e nos dados a que o utilizador tem acesso no Microsoft 365.

Na secção Aplicações integradas do centro de administração do Microsoft 365, os administradores podem ver as permissões e o acesso aos dados exigidos por um plug-in, bem como os termos de utilização e declaração de privacidade do plug-in. Os administradores têm controlo total para selecionar que plug-ins são permitidos na organização. Um utilizador só pode aceder aos plug-ins que o respetivo administrador permitir e que o utilizador tenha instalado ou que lhe tenham sido atribuídos. O Microsoft Copilot para o Microsoft 365 utiliza apenas plug-ins que são ativados pelo utilizador.

Nota

As configurações de política que controlam o uso de experiências ligadas opcionais nas Aplicações do Microsoft 365 não se aplicam a plug-ins.

Para mais informações, consulte os seguintes artigos:

Como é que o Microsoft Copilot para o Microsoft 365 protege os dados organizacionais?

O modelo de permissões no seu inquilino do Microsoft 365 pode ajudar a garantir que os dados não serão divulgados sem a intenção entre utilizadores, grupos e inquilinos. O Microsoft Copilot para o Microsoft 365 apresenta apenas os dados a que cada indivíduo pode aceder utilizando os mesmos controlos subjacentes para o acesso aos dados utilizados noutros serviços do Microsoft 365. O Índice Semântico respeita o limite de acesso baseado na identidade do utilizador para que o processo de base só aceda a conteúdos ao qual o utilizador atual está autorizado a aceder. Para obter mais informações, consulte a política de privacidade e a documentação do serviço da Microsoft.

Quando os dados são encriptados pela Proteção de Informações do Microsoft Purview, o Microsoft Copilot para o Microsoft 365 honra os direitos de utilização concedidos ao utilizador. Esta encriptação pode ser aplicada por etiquetas de confidencialidade ou por permissões restritas em aplicações do Microsoft 365 através da Gestão de Direitos de Informação (IRM). Para obter mais informações sobre como utilizar o Microsoft Purview com o Microsoft Copilot para o Microsoft 365, consulte Proteções de conformidade e segurança de dados do Microsoft Purview para aplicações de IA generativa.

Já implementamos várias formas de proteção para ajudar a impedir os clientes de comprometerem serviços e aplicações do Microsoft 365 ou obterem acesso não autorizado a outros inquilinos ou ao próprio sistema do Microsoft 365. Eis alguns exemplos dessas formas de proteção:

  • O isolamento lógico de conteúdo do cliente em cada inquilino para os serviços do Microsoft 365 é obtido através da autorização do Microsoft Entra e do controlo de acesso baseado em funções. Para obter mais informações, consulte controlos de isolamento do Microsoft 365.

  • A Microsoft utiliza segurança física rigorosa, rastreio em segundo plano e uma estratégia de encriptação com várias camadas para proteger a confidencialidade e a integridade dos conteúdos dos clientes.

  • O Microsoft 365 utiliza tecnologias do lado do serviço que encriptam os conteúdos inativos e em trânsito do cliente, incluindo o BitLocker, a encriptação por ficheiro, o Transport Layer Security (TLS) e o Internet Protocol Security (IPsec). Para obter detalhes específicos sobre a encriptação no Microsoft 365, consulte Encriptação no Microsoft Cloud.

  • O seu controlo sobre os seus dados é reforçado pelo compromisso da Microsoft em cumprir as leis de privacidade amplamente aplicáveis, como o RGPD, e as normas de privacidade, como a ISO/IEC 27018, o primeiro código de prática internacional para a privacidade na nuvem.

  • Para conteúdo acedido através de plug-ins do Microsoft Copilot para o Microsoft 365, a encriptação pode excluir o acesso programático, limitando assim o acesso do plug-in ao conteúdo. Para obter mais informações, veja Configurar direitos de utilização para o Azure Information Protection.

Cumprir com os requisitos de conformidade regulamentares

À medida que a regulamentação no espaço de IA evolui, a Microsoft continuará a adaptar-se e a responder para cumprir futuros requisitos regulamentares.

O Microsoft Copilot para o Microsoft 365 foi criado com base nos compromissos atuais da Microsoft com a segurança e privacidade dos dados na empresa. Não há alterações a estes compromissos. O Microsoft Copilot para o Microsoft 365 está integrado no Microsoft 365 e cumpre com todos os compromissos de privacidade, segurança e conformidade existentes com os clientes comerciais do Microsoft 365. Para obter mais informações, consulte Conformidade da Microsoft.

Para além da adesão aos regulamentos, priorizamos um diálogo aberto com os nossos clientes, parceiros e autoridades regulamentares para compreender e abordar melhor as preocupações, fomentando assim um ambiente de confiança e cooperação. Reconhecemos que a privacidade, a segurança e a transparência não são apenas funcionalidades, mas pré-requisitos no panorama orientado por IA na Microsoft.

Informações adicionais

Microsoft Copilot para o Microsoft 365 e definições de política para experiências ligadas

Se desativar as experiências ligadas que analisam o conteúdo do Microsoft 365 Apps em dispositivos Windows ou Mac na sua organização, as funcionalidades do Microsoft Copilot para o Microsoft 365 não estarão disponíveis para os seus utilizadores nas seguintes aplicações:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Da mesma forma, as funcionalidades do Microsoft Copilot para o Microsoft 365 nessas aplicações em dispositivos Windows ou Mac não estarão disponíveis se desativar a utilização de experiências ligadas para o Microsoft 365 Apps.

Para obter mais informações sobre como utilizar estas definições de política, consulte os artigos que se seguem:

Acerca do conteúdo que o Microsoft Copilot para o Microsoft 365 cria

Não é garantido que as respostas que a IA generativa produz sejam 100% factuais. Embora continuemos a melhorar as respostas, os utilizadores devem continuar a utilizar o seu julgamento ao rever o resultado antes de as enviar a outras pessoas. As nossas capacidades do Microsoft Copilot para o Microsoft 365 fornecem rascunhos e resumos úteis para ajudar a alcançar mais, dando-lhe a oportunidade de rever a IA gerada em vez de automatizar totalmente estas tarefas.

Continuamos a melhorar os algoritmos para resolver proativamente problemas, tais como incompatibilidade e desinformação, bloqueio de conteúdos, segurança de dados e impedir a promoção de conteúdos prejudiciais ou discriminatórios em conformidade com os nossos princípios de IA responsáveis.

A Microsoft não reclama a propriedade do resultado do serviço. Dito isto, não determinamos se o resultado de um cliente está protegido por direitos de autor ou se pode ser aplicável a outros utilizadores. Isto deve-se ao facto de os sistemas de IA generativa poderem produzir respostas semelhantes a pedidos ou consultas semelhantes de vários clientes. Consequentemente, vários clientes podem ter ou reclamar direitos em conteúdo igual ou substancialmente semelhante.

Se um terceiro processar um cliente comercial por violação de direitos de autor por utilizar Copilots da Microsoft ou o resultado que geram, iremos defender o cliente e pagar a quantidade de quaisquer decisões ou acordos adversos resultantes do processo legal, desde que o cliente tenha utilizado as proteções e os filtros de conteúdo que incorporámos nos nossos produtos. Para obter mais informações, consulte Microsoft anuncia novo Compromisso de Direitos de Autor do Copilot para clientes.

Comprometido com a IA responsável

À medida que a IA está preparada para transformar as nossas vidas, temos de definir coletivamente novas regras, normas e práticas para a utilização e o impacto desta tecnologia. A Microsoft tem estado num percurso de IA Responsável desde 2017, quando definimos os nossos princípios e abordagem para garantir que esta tecnologia é utilizada de uma forma orientada por princípios éticos que colocam as pessoas em primeiro lugar.

Na Microsoft, somos orientados pelos nossos princípios de IA, nossas Normas de IA Responsável e décadas de investigação sobre IA, fundamentação e aprendizagem automática de preservação da privacidade. Uma equipe multidisciplinar de investigadores, engenheiros e especialistas em políticas analisa os nossos sistemas de IA quanto a potenciais danos e mitigações — ao refinar dados de formação, filtrar para limitar conteúdos prejudiciais, bloquear através de consultas e resultados tópicos sensíveis e aplicar tecnologias Microsoft como o InterpretML e Fairlearn para ajudar a deteção e correção de desvios de dados. Tornamos claro como o sistema toma decisões ao notar limitações, ligar a fontes e pedir aos utilizadores que revejam e verifiquem factos e ajustem os conteúdos com base nos conhecimentos sobre o assunto. Para obter mais informações, veja Governing AI: A Blueprint for the Future.

Queremos ajudar os nossos clientes a utilizar os nossos produtos de IA de forma responsável, a partilhar as nossas aprendizagens e a criar parcerias baseadas na confiança. Para estes novos serviços, queremos fornecer aos nossos clientes informações sobre as utilizações, capacidades e limitações previstas do nosso serviço de plataforma de IA, para que tenham o conhecimento necessário para fazer escolhas de implementação responsáveis. Também partilhamos recursos e modelos com programadores em organizações e com fabricantes independentes de software (ISV), para os ajudar a criar soluções de IA eficazes, seguras e transparentes.