Analise como o Copilot para Microsoft 365 utiliza seus dados empresariais proprietários.
A Microsoft oferece ferramentas de segurança avançadas em seus ecossistemas do Microsoft 365 e Azure para ajudar as organizações a restringir permissões e implementar "acesso suficiente". As políticas e configurações definidas pelos administradores nessas ferramentas são usadas não apenas pelo Microsoft 365 e Azure para ajudar a proteger a privacidade e evitar o compartilhamento excessivo de dados, mas também pelo Copilot para Microsoft 365.
O Copilot para Microsoft 365 agrega valor ao conectar Grandes Modelos de Linguagem (LLMs) aos seus dados organizacionais. O Copilot para Microsoft 365 acessa conteúdo e contexto através do Microsoft Graph, respeitando as permissões de acesso de cada usuário específico. Ele pode gerar respostas ancoradas em seus dados organizacionais, como documentos do usuário, emails, calendário, chats, reuniões e contatos. O Copilot para Microsoft 365 combina esse conteúdo com o contexto de trabalho do usuário, como a reunião em que o usuário está agora, as trocas de emails que o usuário teve sobre um assunto ou as conversas de chat que o usuário teve na semana passada. O Microsoft 365 Copilot usa essa combinação de conteúdo e contexto para ajudar a fornecer respostas precisas, relevantes e contextuais.
Suas solicitações (entradas), as respostas do Copilot (saídas ou resultados) e os dados acessados por meio do Microsoft Graph:
- NÃO estão disponíveis para outros clientes.
- NÃO são usados para treinar LLMs base, incluindo os LLMs usados pelo Microsoft 365 Copilot.
- NÃO são usados para treinar ou melhorar modelos de IA da Microsoft, a menos que o administrador de locatários opte por compartilhar dados com a Microsoft. Os modelos de IA da Microsoft referem-se a uma categoria mais ampla de modelos de IA usados pela Microsoft, que podem incluir vários tipos de modelos além dos LLMs base.
- NÃO são usados para treinar ou melhorar produtos ou serviços que não sejam da Microsoft (como modelos OpenAI).
O Copilot para Microsoft 365 pode gerar respostas ancoradas no conteúdo empresarial do cliente, como:
- Documentos do usuário
- Emails
- Calendário
- Chats
- Reuniões
- Contatos
- Outros dados comerciais
O Copilot para Microsoft 365 também utiliza dados empresariais proprietários do sua organização dos serviços Microsoft 365 para gerar respostas. Ao fazer isso, ele acessa apenas os dados que o usuário tem permissão para visualizar em seu locatário. Em seguida, ele personaliza cada resposta para o contexto de negócios de um usuário.
Acesso aos dados
O Microsoft 365 Copilot exibe apenas dados organizacionais para os quais os usuários individuais têm pelo menos permissões de Exibição. É importante que as organizações usem os modelos de permissão disponíveis nos serviços do Microsoft 365, como o SharePoint, para ajudar a garantir que os usuários ou os grupos adequados tenham o acesso correto ao conteúdo certo.
O Microsoft 365 exibe apenas o conteúdo da nuvem para o locatário do usuário atual. O Copilot para Microsoft 365 não pesquisa outros locatários nos quais o usuário também pode ser um convidado B2B, ou locatários de usuários inativos configurados com acesso entre locatários ou sincronização entre locatários.
Quando você insere prompts usando o Copilot para Microsoft 365, as informações contidas em seus prompts, os dados que eles recuperam e as respostas geradas permanecem dentro do marco de delimitação do Microsoft 365. Esse design está de acordo com os compromissos atuais de privacidade, segurança e conformidade da Microsoft.
Observação
Os administradores podem optar por deixar os dados fora do limite de conformidade; por exemplo, para consultar o conteúdo da web pública usando o Microsoft Bing.
A única entrada para o Copilot para Microsoft 365 é o prompt do usuário. O prompt também pode incluir arquivos de entrada ou conteúdo descoberto e apresentado ao usuário (pelo orquestrador do Copilot para Microsoft 365 do locatário) que o usuário selecionou para entrada no LLM.
Observação
As organizações podem, opcionalmente, fornecer comentários dos clientes à Microsoft para aprimorar o Microsoft 365 Copilot, da mesma forma que ela usa os comentários dos clientes para aprimorar outros serviços do Microsoft 365 e aplicativos do Microsoft 365. No entanto, a Microsoft não usa esses comentários para treinar nenhum LLM (modelo grande de linguagem). Os clientes podem gerenciar comentários por meio de controles administrativos. Para obter mais informações, consulte Gerenciar os comentários da Microsoft para a sua organização.
Segurança, privacidade e residência de dados
O Copilot para Microsoft 365 segue estes princípios fundamentais:
- Baseado na abordagem abrangente da Microsoft de segurança, conformidade e privacidade.
- Projetado para proteger os dados de locatário, de grupo e individuais.
- Comprometido com a IA responsável.
O Copilot para Microsoft 365 utiliza o conteúdo organizacional de uma empresa em seu locatário do Microsoft 365. Esses dados incluem calendários, emails, chats, documentos, reuniões, contatos e muito mais dos usuários. Embora o Copilot para Microsoft 365 já seja capaz de usar os aplicativos e dados dentro do ecossistema do Microsoft 365, muitos usuários também dependem de várias ferramentas e serviços externos para gerenciamento e colaboração no trabalho. Os clientes podem resolver essa lacuna estendendo o Microsoft 365 Copilot para permitir que os usuários trabalhem com suas ferramentas e serviços de terceiros. Você pode estender o Copilot para Microsoft 365 construindo um plug-in ou conectando-se a uma fonte de dados externa. Para obter mais informações, consulte Estender o Microsoft 365 Copilot.
O Copilot para Microsoft 365 não utiliza os serviços públicos disponíveis da OpenAI. Em vez disso, todo o processamento é executado usando os serviços do OpenAI do Azure com suas próprias instâncias separadas dos modelos grandes de linguagem. O Microsoft 365 Copilot não altera os compromissos de processamento e residência de dados existentes aplicáveis aos locatários do Microsoft 365. As chamadas feitas pelo Copilot para Microsoft 365 ao LLM são roteadas para os data centers mais próximos na região. No entanto, eles também podem chamar outras regiões com capacidade disponível durante períodos de alta utilização. Para usuários da União Europeia (UE), o Microsoft 365 inclui outras proteções para cumprir o Limite de Dados da UE. O tráfego da UE permanece dentro do Limite de Dados da UE, enquanto o tráfego mundial pode ser enviado para a União Europeia e outros países ou regiões para processamento de LLM.
A riqueza da experiência com o Copilot para Microsoft 365 depende dos dados que podem ser recuperados do Microsoft 365 e das fontes de dados externas conectadas. Locatários com os dados mais abundantes no Microsoft 365 (Exchange, OneDrive, SharePoint, Teams) obtêm os melhores resultados do Copilot para Microsoft 365. Com acesso a dados organizacionais abrangentes, o Copilot para Microsoft 365 pode sugerir conteúdo mais relevante e personalizado com base no contexto de trabalho e nas preferências do usuário.
Respostas do Copilot para Microsoft 365
As respostas que a IA generativa produz não são garantidas como 100% factuais. Enquanto a Microsoft continua a melhorar as respostas, os usuários ainda devem analisar a saída antes de enviá-la para outras pessoas. O Copilot para Microsoft 365 fornece rascunhos e resumos úteis para ajudar os usuários a realizar mais, dando-lhes a oportunidade de revisar a IA gerada em vez de automatizar totalmente essas tarefas.
A Microsoft continua aprimorando os algoritmos para resolver problemas de forma proativa, como desinformação e informações errôneas, bloqueio de conteúdo, segurança de dados e prevenção da promoção de conteúdo prejudicial ou discriminatório, de acordo com nossos princípios de IA responsável.
A Microsoft não reivindica a propriedade da saída do serviço. Dito isso, ela não determina se a saída obtida por um cliente é protegida por direitos autorais ou aplicável contra outros usuários. Por quê? Isso ocorre porque os sistemas de IA generativa podem produzir respostas semelhantes às solicitações ou consultas semelhantes de vários clientes. Como resultado, vários clientes podem ter ou reivindicar direitos em conteúdo que seja o mesmo ou substancialmente semelhante.
Se um terceiro processar um cliente comercial por violação de direitos autorais devido ao uso dos Copilots da Microsoft ou do resultado que eles geram, a Microsoft defenderá o cliente e pagará o valor de quaisquer julgamentos adversos ou acordos resultantes da ação judicial, desde que o cliente tenha usado as proteções e filtros de conteúdo que a Microsoft incorporou em seus produtos. Para obter mais informações, confira Microsoft anuncia novo Compromisso de Direitos Autorais do Copilot para clientes.
Dados armazenados sobre as interações do usuário com o Copilot para Microsoft 365
Quando um usuário interage com o Microsoft 365 Copilot (usando aplicativos como Word, PowerPoint, Excel, OneNote, Loop ou Whiteboard), a Microsoft armazena dados sobre essas interações. Os dados armazenados incluem o prompt do usuário e a resposta do Copilot, incluindo citações a qualquer informação utilizada para aterrar a resposta do Copilot. A Microsoft se refere à solicitação do usuário e à resposta do Copilot para essa solicitação como o “conteúdo das interações.” O registro dessas interações é o histórico de interação do Copilot do usuário.
Por exemplo, esses dados armazenados fornecem aos usuários o histórico de interação do Copilot no Microsoft Copilot com chat baseado em grafo e reuniões no Microsoft Teams. Esses dados são processados e armazenados de acordo com os compromissos contratuais com outros conteúdos da sua organização no Microsoft 365. Os dados são criptografados enquanto são armazenados. Eles não são usados para treinar LLMs base, incluindo aqueles usados pelo Microsoft 365 Copilot.
Para exibir e gerenciar esses dados armazenados, os administradores podem utilizar a Pesquisa de conteúdo ou o Microsoft Purview. Os administradores também podem utilizar o Microsoft Purview para definir políticas de retenção para os dados relacionados às interações de chat com Copilot. Para saber mais, confira os seguintes artigos:
- Visão geral da pesquisa de conteúdo
- Proteções de segurança e conformidade de dados do Microsoft Purview para o Microsoft Copilot
- Saiba mais sobre a retenção do Microsoft 365 Copilot
Para chats do Microsoft Teams com o Copilot, os administradores também podem utilizar as APIs de exportação do Microsoft Teams para exibir os dados armazenados.
Observação
Os usuários podem excluir o histórico de interação do Copilot, que inclui suas solicitações e as respostas retornadas pelo Copilot. A instrução sobre como excluir interações do usuário está incluída em um módulo de treinamento posterior intitulado Gerenciar o Microsoft Copilot.
Verificação de conhecimentos
Escolha a melhor resposta para as perguntas abaixo.