Compartilhar via


Perguntas frequentes sobre a experiência de criação do agente de conversa

Essas perguntas frequentes descrevem o impacto da IA da experiência de criação do agente de conversação no Copilot Studio.

O que é a experiência de criação de agente conversacional?

A experiência de criação do agente de conversa é usada para ajudá-lo a criar um agente personalizado ou um agente do Copilot. Por meio da conversa, ele prevê o nome, a descrição e as instruções do agente, ele dá suporte à adição de fontes de conhecimento e gera prompts sugeridos (para agentes do Copilot).

Quais são as capacidades da experiência de criação do agente de conversação?

Você pode começar rapidamente com uma configuração de agente personalizado ou agente copilot por meio de uma interface de linguagem natural. O sistema atualiza a configuração com base em sua entrada durante a conversa.

Qual é o uso pretendido da experiência de criação de agente de conversação?

Você pode usar essa experiência para iniciar a configuração inicial do agente.

Como a experiência de criação do agente de conversação foi avaliada e quais métricas são usadas para medir o desempenho?

Avaliamos o sistema quanto à precisão de quão bem a configuração prevista representava as solicitações através da conversa para garantir a qualidade. Também testamos para garantir que o sistema não produza conteúdo prejudicial ou mal-intencionado.

Quais são as limitações da experiência de criação do agente conversacional e como os usuários podem minimizar o impacto das limitações ao usá-la?

  • A experiência de criação do agente de conversa oferece suporte a determinados idiomas apenas. Você pode usar outros idiomas, mas as respostas geradas podem ser inconsistentes ou inesperadas.

  • Essa experiência só pode ser usada para configurar:

    • O nome
    • A descrição
    • Instruções que criam o agente
    • Um subconjunto dos tipos de fonte de conhecimento com suporte
    • Solicitações sugeridas para agentes do Copilot
  • Consulte as perguntas frequentes sobre IA responsável para obter respostas generativas para outras considerações e limitações ao usar respostas generativas em agentes criados com esse recurso.

Quais fatores e configurações operacionais permitem o uso efetivo e responsável da experiência de criação do agente conversacional?

Você pode usar a linguagem natural para conversar com o sistema durante o chat ou editar a configuração manualmente. Se você editar manualmente, o sistema poderá atualizar a configuração do agente com informações adicionais à medida que você continuar a conversa.

Quais proteções existem dentro do Copilot Studio para a IA responsável?

Respostas gerativas incluem diversas proteções para garantir que administradores, criadores e usuários tenham uma experiência segura e em conformidade. Os administradores têm controle total sobre os recursos em seus locatários e sempre podem desativar a capacidade de publicar agentes com respostas generativas em sua organização. Os criadores podem adicionar instruções personalizadas para influenciar os tipos de respostas retornadas por seus agentes. Para obter mais informações sobre as melhores práticas para escrever instruções personalizadas, consulte Usar modificação de prompt para fornecer instruções personalizadas ao seu agente.

Os criadores também podem limitar as fontes de conhecimento que os agentes podem usar para responder a perguntas. Para permitir que os agentes respondam a perguntas fora do escopo de suas fontes de conhecimento configuradas, os criadores podem ativar o recurso Conhecimento Geral de IA. Para limitar os agentes a responder apenas perguntas ao escopo de suas fontes de conhecimento configuradas, os criadores devem desativar esse recurso.

O Copilot Studio também aplica políticas de moderação de conteúdo em todas as solicitações de IA generativa para proteger administradores, criadores e usuários contra conteúdo ofensivo ou prejudicial. Essas políticas de moderação de conteúdo também se estendem a tentativas maliciosas de jailbreak, injeção de prompts, exfiltração de prompt e violação de direitos autorais. Todo o conteúdo é verificado duas vezes: primeiro durante a entrada do usuário e novamente quando o agente está prestes a responder. Se o sistema encontrar conteúdo prejudicial, ofensivo ou mal-intencionado, ele impedirá que seu agente responda.

Finalmente, é uma melhor prática comunicar aos usuários que o agente usa inteligência artificial, portanto, a seguinte mensagem padrão informa os usuários: "Só para que você esteja ciente, às vezes uso IA para responder às suas perguntas".