Partilhar via


FAQ sobre a segurança e a privacidade de dados do Copilot para o Dynamics 365 e Power Platform

As funcionalidades do Copilot for Dynamics 365 e do Power Platform seguem um conjunto de práticas básicas de segurança e privacidade e o Padrão de IA Responsável da Microsoft. Os dados do Dynamics 365 e do Power Platform são protegidos por controlos de conformidade, segurança e privacidade abrangentes e líderes no setor.

O Copilot está incorporado no Microsoft Azure OpenAI Service e é totalmente executado na cloud do Azure. O Azure OpenAI oferece disponibilidade regional e filtragem de conteúdo de IA responsável. O Copilot utiliza modelos de OpenAI com todas as capacidades de segurança do Microsoft Azure. O OpenAI é uma organização independente. Não partilhamos os seus dados com o OpenAI.

As funcionalidades do Copilot não estão disponíveis em todas as geografias e idiomas do Azure. Dependendo de onde o seu ambiente está alojado, talvez seja necessário permitir o movimento de dados entre regiões geográficas para os utilizar. Para obter mais informações, consulte os artigos listados em Movimento de dados entre regiões geográficas.

O que acontece aos meus dados quando utilizo o Copilot?

Os seus dados são controlados por si. A Microsoft não partilha os seus dados com terceiros, a menos que tenha concedido permissão para fazê-lo. Além disso, não utilizados os dados dos seus clientes para treinar o Copilot ou as respetivas funcionalidades de IA, a menos que nos consinta fazê-lo. O Copilot segue as permissões e políticas de dados existentes, e as suas respostas para si baseiam-se apenas nos dados aos quais pode aceder pessoalmente. Para obter mais informações sobre como pode controlar os seus dados e como os seus dados são processados, consulte os artigos listados em Copilot em aplicações do Dynamics 365 e Power Platform.

O Copilot monitoriza utilizações abusivas ou nocivas do serviço com processamento transitório. Não armazenamos ou conduzimos um exame visual às entradas e saídas do Copilot para fins de monitorização de abuso.

Como o Copilot utiliza os meus dados? 

Cada serviço ou funcionalidade utiliza o Copilot com base nos dados que fornece ou configura para o Copilot processar.

Os seus pedidos (entradas) e as respostas do Copilot (saídas ou resultados):

  • NÃO estão disponíveis para outros clientes.

  • NÃO são utilizados para treinar ou melhorar produtos ou serviços de terceiros (como modelos de OpenAI).

  • NÃO são utilizados para treinar ou melhorar modelos de IA da Microsoft, a menos que o administrador do inquilino tenha optado pela partilha dados com a Microsoft.

Saiba mais sobre privacidade e segurança de dados do Azure OpenAI Service. Para saber mais sobre como a Microsoft protege e utiliza os seus dados de uma forma mais geral, leia a nossa Declaração de Privacidade.

Para onde vão os meus dados?

A Microsoft funciona com base na confiança. Estamos empenhados em zelar pela segurança, privacidade e conformidade em tudo o que fazemos, e a nossa abordagem à IA não é diferente. Os dados dos clientes, incluindo as entradas e saídas do Copilot, são armazenados no limite de confiança da Microsoft Cloud.

Em alguns cenários, como as funcionalidades com tecnologia Bing e plug-ins de copiloto de terceiros, os dados do cliente podem ser transmitidos fora do limite de confiança da Microsoft Cloud.

O Copilot pode aceder a conteúdo encriptado?

Os dados são fornecidos ao Copilot com base no nível de acesso do utilizador atual. Se um utilizador tiver acesso a dados encriptados no Dynamics 365 e no Power Platform e os fornecer ao Copilot, o Copilot terá acesso aos mesmos.

Como é que o Copilot protege os dados do cliente?

A Microsoft dispõe de capacidades únicas para fornecer IA preparada para empresas. O Copilot baseia-se no Azure OpenAI Service e cumpre os compromissos de privacidade, segurança e regulamentares que assumimos com os nossos clientes.

  • Criado com base na abordagem abrangente da Microsoft à segurança, privacidade e conformidade. O Copilot está integrado em serviços da Microsoft, como o Dynamics 365 e o Power Platform, e herda os respetivos processos e políticas de segurança, privacidade e conformidade, como autenticação multifator e limites de conformidade.

  • Múltiplas formas de proteção para salvaguardar os dados organizacionais. As tecnologias do lado do serviço encriptam conteúdo organizacional inativo e em circulação para uma segurança robusta. As ligações são salvaguardadas por TLS (Transport Layer Security) e as transferências de dados entre o Dynamics 365, o Power Platform e o Azure OpenAI ocorrem através da rede de base da Microsoft, garantindo a fiabilidade e a segurança. Saiba mais sobre a encriptação na Microsoft Cloud.

  • Arquitetada para proteger os seus dados ao nível do inquilino e do ambiente. Sabemos que uma fuga de dados é um problema para os clientes. Os modelos de IA da Microsoft não são preparados e não aprendem com base nos seus pedidos ou dados de inquilinos, a menos que o administrador do inquilino tenha optado por partilhar dados connosco. Nos seus ambientes, pode controlar o acesso através de permissões que configura. Os mecanismos de autenticação e autorização segregam os pedidos para o modelo partilhado entre inquilinos. O Copilot utiliza dados a que apenas o utilizador pode aceder, utilizando a mesma tecnologia que utilizamos há anos para proteger os dados dos clientes.

As respostas do Copilot são sempre factuais?

À semelhança de qualquer IA generativa, não garantimos que as respostas do Copilot sejam 100% factuais. Embora o melhoramento das respostas baseadas em factos continue a ser um trabalho em curso, deve fazer uso do seu bom senso e rever os resultados antes de enviá-los a outras pessoas. O Copilot fornece rascunhos e resumos úteis que ajudam a aumentar a sua produtividade, mas é totalmente automático. Tem sempre a oportunidade de rever o conteúdo gerado por IA.

As nossas equipas estão a trabalhar proativamente para resolverem problemas, como informações incorretas e desinformação, bloqueio de conteúdo, segurança de dados e promoção de conteúdo nocivo ou discriminatório em conformidade com os nossos princípios de IA responsável.

Também fornecemos orientações ao nível da experiência do utilizador para promover a utilização responsável dos conteúdos gerados e das ações sugeridas pela IA.

  • Instruções e pedidos. Quando utiliza o Copilot, os pedidos e outros elementos instrucionais lembram-lhe que deve rever e editar as respostas conforme necessário, bem como proceder a uma verificação manual da precisão dos factos, dados e texto antes de utilizar o conteúdo gerado por IA.

  • Fontes citadas. Quando aplicável, o Copilot cita as respetivas fontes de informação, sejam públicas ou internas, para que possa revê-las e confirmar as respetivas respostas.

Para obter mais informações, consulte as FAQ sobre IA Responsável para o seu produto no Microsoft Learn.

O Copilot bloqueia injeções de pedidos (ataques de jailbreak)?

Os Ataques de jailbreak são pedidos de utilizador destinados a incitar o modelo de IA generativa a ter comportamentos para os quais foi preparado para evitar ou a não cumprir as regras definidas que deveria aplicar. Os serviços do Dynamics 365 e do Power Platform são necessários para a proteção contra injeções de pedidos. Saiba mais sobre ataques de jailbreak e como utilizar a Segurança de Conteúdo de IA do Azure para os detetar.

Como é que a Microsoft testa e valida a qualidade do Copilot, incluindo a proteção contra injeção de pedidos e as respostas fundamentadas?

Cada nova interação de produto e modelo de linguagem do Copilot deve ser aprovada numa revisão de IA responsável interna antes de poder ser lançada. Antes do lançamento, utilizamos um processo chamado "red teaming" (no qual uma equipa simula um ataque inimigo, encontrando e explorando as fraquezas para ajudar a organização a melhorar as respetivas defesas) para avaliar riscos potenciais em conteúdo nocivo, cenários de jailbreak e respostas fundamentadas. Após o lançamento, utilizamos testes automatizados e ferramentas de avaliação manuais e automatizadas para avaliar a qualidade das respostas do Copilot.

Como é que a Microsoft melhora o modelo de base e mede os melhoramentos das respostas fundamentadas?

No contexto da IA, em especial da IA que lida com modelos de linguagem como aquele em que o Copilot se baseia, a fundamentação ajuda a IA a gerar respostas que são mais relevantes e lógicas no mundo real. A fundamentação ajuda a garantir que as respostas da IA se baseiam em informações fiáveis e são tão precisas e relevantes quanto possível. As métricas de respostas fundamentadas avaliam a precisão com que os factos declarados no conteúdo de fundamentação fornecido ao modelo são representados na resposta final.

Os modelos de base, como o GPT-4, são melhorados por técnicas de Geração Aumentada de Obtenção (RAG). Estas técnicas permitem que os modelos utilizem mais informações do que aquelas com base nas quais foram preparados para compreender o cenário de um utilizador. A RAG funciona ao identificar primeiro os dados relevantes para o cenário, de modo semelhante à forma como um motor de busca identifica páginas Web relevantes para os termos de pesquisa do utilizador. Utiliza várias abordagens para identificar o conteúdo relevante para o pedido do utilizador e que deve ser utilizado para fundamentar a resposta. As abordagens incluem a pesquisa baseada em diferentes tipos de índices, como índices invertidos através de técnicas de recuperação de informações como a correspondência de termos, ou índices vetoriais que utilizam comparações de distância vetorial para fins de semelhança semântica. Depois de identificar os documentos relevantes, a RAG transmite os dados ao modelo juntamente com a conversação atual, dando ao modelo mais contexto para compreender melhor as informações que já tem e gerar uma resposta fundamentada no mundo real. Por último, a RAG verifica a resposta para se certificar de que é suportada pelo conteúdo de origem que forneceu ao modelo. As funcionalidades de IA generativa do Copilot incorporam a RAG de várias formas. Um exemplo é o chat com utilização de dados, em que um chatbot é fundamentado com as origens de dados do próprio cliente.

Outro método para melhorar modelos de base é conhecido como afinação. Uma grande conjunto de dados de pares de consulta/resposta é mostrado a um modelo de base para aumentar a respetiva preparação original com novos exemplos direcionados para um cenário específico. O modelo pode então ser implementado como um modelo separado, ou seja, um modelo afinado para esse cenário. Enquanto a fundamentação consiste em tornar o conhecimento da IA relevante para o mundo real, a afinação consiste em tornar o conhecimento da IA mais específico para uma tarefa ou um domínio específico. A Microsoft utiliza a afinação de várias formas. Por exemplo, utilizamos a criação de fluxos do Power Automate a partir de descrições de linguagem natural fornecidas pelo utilizador.

Como é que o Copilot bloqueia conteúdo nocivo?

O Azure OpenAI Service inclui um sistema de filtragem de conteúdos que funciona juntamente com modelos de base. Os modelos de filtragem de conteúdo para as categorias Ódio e Equidade, Sexualidade, Violência e Automutilação foram especificamente preparados e testados em vários idiomas. Este sistema funciona ao executar tanto o pedido de entrada quanto a resposta através de modelos de classificação criados para identificar e bloquear a saída de conteúdo nocivo.

Os danos relacionados com ódio e equidade referem-se a qualquer conteúdo que utilize linguagem pejorativa ou discriminatória com base em atributos como raça, etnia, nacionalidade, identidade e expressão de género, orientação sexual, religião, estado de imigração, estado de capacidade, aspeto pessoal e tamanho do corpo. A equidade consiste-se em garantir que os sistemas de IA tratam todos os grupos de pessoas de forma equitativa, sem contribuir para as desigualdades societais existentes. O conteúdo sexual envolve debates sobre órgãos reprodutores humanos, relações românticas, atos retratados em termos eróticos ou afetivos, gravidez, atos sexuais físicos, incluindo aqueles retratados como uma agressão ou um ato forçado de violência sexual, prostituição, pornografia e abuso. A violência descreve a linguagem relacionada com ações físicas que se destinam a prejudicar ou matar, incluindo ações, armas e entidades relacionadas. A linguagem de automutilação refere-se a ações deliberadas que se destinam a autolesão ou suicídio.

Saiba mais sobre a filtragem de conteúdo do Azure OpenAI.

O Copilot cumpre os requisitos regulamentares em matéria de conformidade?

O Microsoft Copilot faz parte do ecossistema do Dynamics 365 e do Power Platform, e cumpre os mesmos requisitos de conformidade regulamentar. Para obter mais informações sobre as certificações regulamentares de serviços da Microsoft, aceda ao Portal de Confiança do Serviço. Além disso, o Copilot cumpre o nosso compromisso de IA responsável, que é posto em prática através do nosso Padrão de IA Responsável. À medida que a regulamentação em matéria de IA evolui, a Microsoft continua a adaptar-se e responder aos novos requisitos.

Saiba mais sobre a disponibilidade do Dynamics 365, do Power Platform e do Copilot, localizações de dados do cliente e conformidade com requisitos globais, regionais e específicos do setor para a gestão de dados.

Saiba mais

Copilot nas aplicações do Dynamics 365 e no Power Platform

Produto Funcionalidade Os Ambientes Geridos são obrigatórios? Como desativar a funcionalidade
AI Builder Cenários em pré-visualização Não Cenários em pré-visualização
Dynamics 365 Customer Insights - Data Crie segmentos com o Copilot para Customer Insights - Data (pré-visualização) Não O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Descrição geral do relatório de preparação dos dados (pré-visualização) Não O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Obtenha respostas a perguntas sobre as capacidades do Copilot (pré-visualização) Não O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights (Dados) Estabeleça um diálogo com os dados utilizando o Copilot no Customer Insights Não O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Veja configuração do sistema Não O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Journeys O Copilot ajuda-o a aprender e a fazer mais (análise) Não O facto de este copiloto estar ou não disponível no seu ambiente é determinado pelas definições do administrador do Power Platform. Saiba como adicionar o Copilot para aplicações orientadas por modelos.


Esta capacidade é "copiloto de aplicações no Customer Insights - Journeys" e é por isso que está ativada no centro de administração do Power Platform. Mais informações: FAQ sobre IA responsável
Dynamics 365 Customer Insights - Journeys Crie percursos utilizando a ajuda da IA Não O Customer Insights - Journeys tem os seus próprios sinalizadores para as funcionalidades do Copilot.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Atualize e aperfeiçoe a mensagem Não O Customer Insights - Journeys tem os seus próprios sinalizadores para as funcionalidades do Copilot.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Atribua um estilo aos seus e-mails com temas assistidos por IA Não O Customer Insights - Journeys tem os seus próprios sinalizadores para as funcionalidades do Copilot.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Vise os clientes certos com o assistente de consultas

Não O Customer Insights - Journeys tem os seus próprios sinalizadores para as funcionalidades do Copilot.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilize a IA para iniciar a criação de e-mails Não O Customer Insights - Journeys tem os seus próprios sinalizadores para as funcionalidades do Copilot.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilize imagens no seu conteúdo Não O Customer Insights - Journeys tem os seus próprios sinalizadores para as funcionalidades do Copilot.

Mais informações: Dê consentimento para utilizar o Copilot no Customer Insights - Journeys
Power Apps Crie aplicações através de conversação Não Faça a gestão das funcionalidades
Power Apps Assistência do Copilot para o preenchimento de formulários em aplicações condicionadas por modelos Não Faça a gestão das funcionalidades
Power Apps Redija texto de entrada bem escrito com o Copilot Não, licença de utilizador premium Redija texto de entrada bem escrito com o Copilot
Power Apps Excel para Tabela Não Faça a gestão das funcionalidades
Power Apps Utilize a linguagem natural para editar uma aplicação utilizando o painel do Copilot Não Faça a gestão das funcionalidades
Power Automate Copilot em fluxos de cloud na home page e no estruturador (Para obter detalhes, consulte Comece a utilizar o Copilot em fluxos de cloud). Não Contacte o suporte para executar um script do PowerShell.
Power Pages Todos (Para obter detalhes, consulte Descrição geral do Copilot no Power Pages). Não Desativar o Copilot no Power Pages

Disponibilidade regional e de idiomas

Disponibilidade Internacional do Copilot

Movimento de dados entre localizações geográficas

Segurança na Microsoft

Privacidade na Microsoft

Declaração de Privacidade da Microsoft

IA Responsável