Compartilhar via


Perguntas frequentes sobre a segurança e a privacidade dos dados do Copilot no Dynamics 365 e no Power Platform

Os recursos do Copilot para Dynamics 365 e do Power Platform seguem um conjunto de práticas básicas de segurança e privacidade e o Padrão da IA Responsável da Microsoft. Os dados do Dynamics 365 e do Power Platform são protegidos por controles de conformidade, segurança e privacidade abrangentes e líderes do setor.

O Copilot é baseado no Serviço OpenAI do Microsoft Azure e é executado completamente na nuvem do Azure. O Serviço OpenAI do Azure oferece disponibilidade regional e filtragem de conteúdo de IA responsável. O Copilot usa modelos do OpenAI com todas as capacidades de segurança do Microsoft Azure. A OpenAI é uma organização independente. Não compartilhamos seus dados com a OpenAI.

Os recursos do Copilot não estão disponíveis em todas as regiões geográficas e idiomas do Azure. Dependendo de onde seu ambiente estiver hospedado, talvez seja necessário permitir a movimentação de dados entre regiões geográficas para usá-los. Para obter mais informações, consulte os artigos listados em Movimentação de dados entre geografias.

O que acontece com meus dados quando uso o Copilot?

Você tem o controle de seus dados. A Microsoft não compartilha seus dados com terceiros, a menos que você dê permissão. Além disso, nós não usamos seus dados de cliente para treinar ou melhorar o Copilot ou seus recursos de IA, a menos que você tenha dado consentimento para isso. O Copilot segue as permissões e políticas de dados existentes, e as respostas dele para você se baseiam somente nos dados aos quais você tem acesso. Para obter mais informações sobre como você pode controlar seus dados e como seus dados são tratados, consulte os artigos listados em Copilot em aplicativos do Dynamics 365 e no Power Platform.

O Copilot monitora usos abusivos ou prejudiciais do serviço com processamento transitório. Não armazenamos nem realizamos análise ocular de entradas e saídas do Copilot para fins de monitoramento de abuso.

Como o Copilot usa meus dados? 

Cada serviço ou recurso usa o Copilot com base nos dados que você fornece ou configura para o Copilot processar.

Seus prompts (entradas) e respostas do Copilot (saídas ou resultados):

  • NÃO estão disponíveis para outros clientes.

  • NÃO são usados para treinar ou melhorar produtos ou serviços de terceiros (como os modelos do OpenAI).

  • NÃO são usados para treinar ou melhorar modelos de IA da Microsoft, a menos que o administrador do seu locatário aceite compartilhar os dados conosco.

Saiba mais sobre a privacidade e a segurança de dados do Serviço OpenAI do Azure. Para saber mais sobre como a Microsoft protege e usa seus dados de forma mais geral, leia nossa Política de Privacidade.

Para onde vão meus dados?

Microsoft Runs on Trust. Estamos comprometidos com a segurança, privacidade e conformidade em tudo o que fazemos, e nossa abordagem à IA não é diferente. Os dados do cliente, incluindo entradas e saídas do Copilot, são armazenados dentro do limite de confiança do Microsoft Cloud.

Em alguns cenários, como recursos desenvolvidos pelo Bing e plug-ins do copiloto de terceiros, os dados do cliente podem ser transmitidos fora do limite de confiança do Microsoft Cloud.

O Copilot pode acessar conteúdo criptografado?

Os dados são fornecidos ao Copilot com base no nível de acesso do usuário atual. Se um usuário tiver acesso aos dados criptografados no Dynamics 365 e no Power Platform e o usuário os fornece ao Copilot, e então o Copilot poderá acessá-los.

Como o Copilot protege os dados do cliente?

A Microsoft está posicionada exclusivamente para fornecer IA pronta para uso corporativo. O Copilot é da plataforma Serviço OpenAI do Azure e está em conformidade com nossos compromissos existentes de privacidade, segurança e regulamento com nossos clientes.

  • Criado com base na abordagem abrangente da Microsoft para segurança, privacidade e conformidade. O Copilot está integrado aos serviços da Microsoft, como o Dynamics 365 e o Power Platform, e herda suas valiosas políticas e processos de segurança, privacidade e conformidade, como a autenticação multifator e limites de conformidade.

  • Múltiplas formas de proteção de dados organizacionais. As tecnologias do lado do serviço criptografam o conteúdo organizacional em repouso e em trânsito para uma segurança robusta. As conexões são protegidas por TLS (Transport Layer Security) e as transferências de dados entre o Dynamics 365, o Power Platform e o OpenAI do Azure ocorrem pela rede backbone da Microsoft, garantindo confiabilidade e segurança. Saiba mais sobre criptografia no Microsoft Cloud.

  • Projetado para proteger seus dados no nível do locatário e do ambiente. Sabemos que o vazamento de dados é uma preocupação para os clientes. Os modelos de IA da Microsoft não são treinados e não aprendem com os dados do locatário ou seus prompts, a menos que o administrador do locatário tenha optado por compartilhar dados conosco. Em seus ambientes, você pode controlar o acesso por meio de permissões configuradas. Os mecanismos de autenticação e autorização segregam as solicitações para o modelo compartilhado entre os locatários. O Copilot utiliza dados que somente você pode acessar usando a mesma tecnologia que estamos usando durante anos para proteger os dados dos clientes.

As respostas do Copilot são sempre factuais?

Assim como qualquer IA generativa, as respostas do Copilot não são garantidamente 100% factuais. Embora continuemos a melhorar as respostas a perguntas baseadas em fatos, você ainda deve usar o bom senso e revisar a saída antes de enviá-la a outras pessoas. O Copilot fornece rascunhos e resumos úteis para ajudar você a fazer mais, mas é totalmente automático. Você sempre tem a chance de revisar o conteúdo gerado por IA.

Nossas equipes estão trabalhando para resolver problemas de forma proativa, como informações incorretas e desinformação, bloqueio de conteúdo, segurança de dados e promoção de conteúdo prejudicial ou discriminatório, de acordo com nossos princípios da IA responsável.

Também oferecemos orientações na experiência do usuário para reforçar o uso responsável de conteúdo gerado pela IA e as ações sugeridas.

  • Instruções e prompts. Ao usar o Copilot, os prompts e outros elementos informativos lembram você de revisar e editar respostas conforme necessário antes do uso e para verificar manualmente a precisão de fatos, dados e texto antes de usar o conteúdo gerado pela IA.

  • Fontes citadas. Quando aplicável, o Copilot cita suas fontes de informação, sejam públicas ou internas, para que você mesmo possa revisá-las a fim de confirmar as respostas.

Para obter mais informações, consulte as perguntas frequentes sobre IA Responsável para seu produto no Microsoft Learn.

Como o Copilot bloqueia conteúdo perigoso?

O Serviço OpenAI do Azure inclui um sistema de filtragem de conteúdo que funciona em conjunto com os modelos principais. Os modelos de filtragem de conteúdo para as categorias Ódio e Imparcialidade, Sexual, Violência e Automutilação foram especificamente treinados e testados em vários idiomas. Esse sistema funciona executando o prompt de entrada e a resposta por meio de modelos de classificação projetados para identificar e bloquear a saída de conteúdo nocivo.

Os danos relacionados ao ódio e à justiça referem-se a qualquer conteúdo que use linguagem pejorativa ou discriminatória com base em atributos como raça, etnia, nacionalidade, identidade e expressão de gênero, orientação sexual, religião, status de imigração, status de habilidade, aparência pessoal e tamanho corporal. A imparcialidade está preocupada em garantir que os sistemas de IA tratem todos os grupos de pessoas de forma equitativa sem contribuir para as desigualdades sociais existentes. O conteúdo sexual envolve discussões sobre órgãos reprodutivos humanos, relacionamentos amorosos, atos retratados em termos eróticos ou afetivos, gravidez, atos sexuais físicos, incluindo aqueles retratados como uma agressão ou um ato forçado de violência sexual, prostituição, pornografia e abuso. A violência descreve a linguagem relacionada a ações físicas que têm a intenção de prejudicar ou matar, incluindo ações, armas e entidades relacionadas. A linguagem de automutilação refere-se a ações deliberadas que têm a intenção de ferir ou matar a si mesmo.

Saiba mais sobre a filtragem de conteúdo do OpenAI do Azure.

O Copilot bloqueia injeções de prompts (ataques de jailbreak)?

Ataques de jailbreak são prompts de usuário projetados para provocar o modelo de IA generativa em se comportar das formas como ele foi treinado para quebrar ou não as regras definidas que ele deve seguir. Os serviços no Dynamics 365 e no Power Platform são necessários para a proteção contra injeções de prompt. Saiba mais sobre ataques de jailbreak e como usar a Segurança de Conteúdo de IA do Azure para detectá-los.

O Copilot bloqueia injeções de prompts indiretas (ataques indiretos)?

Os ataques indiretos, também conhecidos como ataques de prompt indiretos ou ataques de injeção de prompt entre domínios, são uma vulnerabilidade potencial em que terceiros colocam instruções maliciosas dentro de documentos que o sistema de IA generativo pode acessar e processar. Os serviços no Dynamics 365 e no Power Platform são necessários para a proteção contra injeções de prompts indiretas. Saiba mais sobre ataques indiretos e como usar a Segurança de Conteúdo de IA do Azure para detectá-los.

Como a Microsoft testa e valida a qualidade do Copilot, incluindo proteção imediata contra injeção e respostas fundamentadas?

Cada nova iteração de produto e modelo de linguagem do Copilot deve passar por uma revisão interna da IA responsável antes de poder ser lançada. Antes do lançamento, usamos um processo chamado "red teaming" (no qual uma equipe simula um ataque inimigo, encontrando e explorando fraquezas para ajudar a organização a melhorar suas defesas) para avaliar riscos potenciais em conteúdo prejudicial, cenários de jailbreak e respostas fundamentadas. Após o lançamento, usamos testes automatizados e ferramentas de avaliação manuais e automatizadas para avaliar a qualidade das respostas do Copilot.

Como a Microsoft aprimora o modelo básico e mede as melhorias nas respostas fundamentadas?

No contexto da IA, especialmente a IA que lida com modelos de linguagem como aquele em que o Copilot se baseia, a fundamentação ajuda a IA a gerar respostas mais relevantes e que façam sentido no mundo real. A fundamentação ajuda a garantir que as respostas da IA sejam baseadas em informações confiáveis e tão precisas e relevantes quanto possível. As métricas de resposta fundamentada nos dados avaliam com que precisão os fatos declarados no conteúdo de aterramento fornecido ao modelo são representados na resposta final.

Modelos de fundação como GPT-4 são aprimorados por técnicas de RAG (Geração Aumentada de Recuperação). Essas técnicas permitem que os modelos usem mais informações do que foram treinadas para entender o cenário de um usuário. O RAG funciona identificando primeiro os dados que são relevantes para o cenário, semelhante a como um mecanismo de pesquisa identifica páginas da Web que são relevantes para os termos de pesquisa do usuário. Ele usa várias abordagens para identificar qual conteúdo é relevante para o prompt do usuário e deve ser usado para fundamentar a resposta. As abordagens incluem pesquisar diferentes tipos de índices, como índices invertidos usando técnicas de recuperação de informações, como correspondência de termos, ou índices vetoriais usando comparações vetoriais de distância para similaridade semântica. Depois de identificar os documentos relevantes, o RAG passa os dados para o modelo junto com a conversa atual, dando ao modelo mais contexto para entender melhor as informações que ele já tem e gerar uma resposta fundamentada no mundo real. Por fim, o RAG verifica a resposta para certificar-se de que ela tem suporte do conteúdo de origem fornecido ao modelo. Os recursos de IA generativa do Copilot incorporam o RAG de várias maneiras. Um exemplo é o uso de chat com dados, em que um chatbot é fundamentado com as próprias fontes de dados do cliente.

Outro método para aprimorar os modelos fundamentais é conhecido como ajuste fino. Um grande conjunto de dados de pares consulta-resposta é mostrado a um modelo fundamental para aumentar seu treinamento original com novos exemplos direcionados a um cenário específico. O modelo pode então ser implantado como um modelo separado – que é ajustado para esse cenário. Enquanto o aterramento é sobre tornar o conhecimento da IA relevante para o mundo real, o ajuste fino é sobre tornar o conhecimento da IA mais específico para uma tarefa ou domínio específico. A Microsoft usa o ajuste fino de várias maneiras. Por exemplo, usamos a criação de fluxo do Power Automate de descrições em linguagem natural fornecidas pelo usuário.

O Copilot atende às necessidades da conformidade regulatória?

O Microsoft Copilot faz parte do ecossistema do Dynamics 365 e do Power Platform e atende aos mesmos requisitos de conformidade regulatória. Para obter mais informações sobre as certificações regulatórias de serviços da Microsoft, acesse o Portal de Confiança do Serviço. Além disso, o Copilot adere ao nosso compromisso com a IA responsável, que está descrito em nossa Norma de IA responsável. Conforme a regulamentação na área de IA evolui, a Microsoft continua a se adaptar e a responder a novos requisitos.

Saiba mais sobre a disponibilidade do Dynamics 365, do Power Platform e do Copilot, os locais de dados do cliente e conformidade com requisitos globais, regionais e específicos da indústria para o gerenciamento de dados.

Saiba mais

Copilot em aplicativos do Dynamics 365 e o Power Platform

Produto Recurso Ambientes Gerenciados necessários? Como desativar o recurso
AI Builder Cenários na versão preliminar Não Cenários na versão preliminar
Dynamics 365 Business Central Todos (veja a lista completa em aka.ms/bcAI.) Não Ativar recursos
Dynamics 365 Customer Insights - Data Criar segmentos com o Copilot para Customer Insights - Data (versão preliminar) Não O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Visão geral do relatório de preparação de dados (versão preliminar) Não O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Obter respostas para perguntas sobre recursos do Copilot (versão preliminar) Não O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights (Dados) Diálogo com dados usando o Copilot no Customer Insights Não O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Exibir configuração do sistema Não O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Journeys O Copilot ajuda você a aprender e a produzir mais (revisão) Não As configurações do administrador do Power Platform determinam se este copiloto está disponível em seu ambiente. Saiba como adicionar o Copilot para aplicativos baseados em modelo.


Esse recurso é o "copiloto do aplicativo no Customer Insights - Journeys" e, por isso, está habilitado no centro de administração do Power Platform. Saiba mais: Perguntas frequentes sobre a IA responsável
Dynamics 365 Customer Insights - Journeys Criar percursos usando a assistência da IA Não O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Atualizar e aperfeiçoar a mensagem Não O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Criar estilos para seus emails com temas assistidos por IA Não O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Segmentar os clientes certos usando o assistente de consulta

Não O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Usar a IA para iniciar a criação de emails Não O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Usar imagens em seu conteúdo Não O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Power Apps Criar aplicativos por meio de conversa Não Gerenciar configurações de recursos
Power Apps Assistência do Copilot para preenchimento de formulário em aplicativos baseados em modelo Não Gerenciar configurações de recursos
Power Apps Fazer rascunho de texto de entrada bem escrito com o Copilot Não, licença de usuário premium Fazer rascunho de texto de entrada bem escrito com o Copilot
Power Apps Excel para tabela Não Gerenciar configurações de recursos
Power Apps Usar linguagem natural para editar um aplicativo usando o painel do Copilot Não Gerenciar configurações de recursos
Power Automate Copiloto em fluxos de nuvem na Página Inicial e no designer (consulte Introdução ao Copilot nos fluxos de nuvem para obter detalhes.) Não Entre em contato com o suporte para executar um script do PowerShell.
Power Pages Tudo (consulte Visão geral do Copilot no Power Pages para obter detalhes.) Não Desativar o Copilot no Power Pages

Disponibilidade de idiomas e regional

Disponibilidade internacional do Copilot

Movimentação de dados entre regiões geográficas

Segurança na Microsoft

Privacidade da Microsoft

Política de Privacidade da Microsoft

IA Responsável