Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Orquestração generativa é a evolução do desenvolvimento de agentes conversacionais no Copilot Studio. Ele introduz uma grande camada de planejamento orientada por modelos de linguagem (LLM) que interpreta a intenção do usuário, decompone solicitações complexas, seleciona as ferramentas e conhecimentos certos e executa planos em múltiplas etapas com proteções para segurança e conformidade. Em vez de depender apenas de temas de conversa artesanais, a orquestração generativa compõe blocos de construção reutilizáveis — ações, tópicos, fontes de conhecimento, agentes filhos e gatilhos autônomos — em fluxos de trabalho inteligentes.
No Copilot Studio, habilitar orquestração generativa oferece respostas melhores com menos scripts manuais. Neste artigo, você aprende sobre a arquitetura por trás da orquestração generativa e como criar instruções eficazes e testar e ajustar seus agentes orquestrados.
Por que a orquestração generativa importa?
Projetos tradicionais orientados por tópicos exigem múltiplos tópicos artesanais, ramificação rígida e lógica manual de preenchimento de slots. Essa abordagem pode levar a:
- Grandes inventários de tópicos com lógica sobreposta.
- Dificuldade em lidar com enunciados ambíguos ou multi-intenções.
- Experiências inconsistentes quando os usuários formulam perguntas de forma diferente.
- Alto custo de manutenção quando APIs ou regras de negócios mudam.
A orquestração generativa resolve esses desafios adiante:
- Reduzir a proliferação de temas através da composição de blocos de construção reutilizáveis.
- Automação do preenchimento de espaços com base em definições de entrada.
- Adaptando o estilo de resposta e a estrutura do plano de forma dinâmica.
- Melhorando a relevância por meio da recuperação semântica do conhecimento.
- Possibilitando sugestões proativas de próximos passos.
Arquitetura e componentes
Em um nível geral, um agente orquestrador generativo consiste em vários componentes-chave trabalhando juntos:
Orquestrador (planejador): O cérebro do agente orientado por LLM que transforma uma entrada, como uma mensagem ou evento do usuário, em um plano estruturado. O orquestrador identifica as intenções, escolhe quais ferramentas, tópicos ou agentes invocar para cada etapa e define a sequência e o fluxo de dados entre as etapas. Ele gera uma lista ordenada de etapas (um "plano") que o runtime executa, e garante que cada etapa esteja dentro da política. Por exemplo, busca aprovação para ações sensíveis.
Camada de conhecimento: Um conjunto de fontes de recuperação, como bases de conhecimento internas, documentos, bancos de dados e mais, que o agente pode consultar para fundamentar suas respostas. O orquestrador usa essa camada para buscar informações factuais ou orientações. Os resultados frequentemente incluem citações e metadados, que o agente pode incorporar nas respostas para maior transparência. A camada de conhecimento é somente leitura e fornece evidências ou contexto.
Ferramentas e conectores: Ações externas, APIs ou fluxos de automação que o agente pode chamar como parte de um plano. Cada ferramenta possui uma interface definida: parâmetros de entrada (com tipos esperados), variáveis de saída e possivelmente condições de erro. Eles são essencialmente as "habilidades" do agente para realizar operações, como consultar um pedido, enviar um e-mail ou executar um script. Você deve testar ferramentas minuciosamente e garantir que elas se comportem deterministicamente com as mesmas entradas, já que o orquestrador as trata como funções confiáveis.
Tópicos e agentes inline: Tópicos de conversa reutilizáveis ou mini-diálogos que encapsulam uma lógica específica. Na orquestração generativa, o planejador pode invocar tópicos não apenas por frases gatilho, mas também sempre que o propósito descrito corresponde à necessidade do usuário. Agentes inline referem-se a tópicos ou rotinas pequenas e focadas usadas como subetapas dentro de um plano maior. Eles rodam dentro do contexto do agente principal e lidam com tarefas discretas para que o orquestrador principal não precise roteirizar explicitamente esses detalhes.
Gatilhos de eventos (autonomia): Mecanismos que iniciam o orquestrador sem uma mensagem de usuário. Esses mecanismos podem ser gatilhos programados ou baseados em eventos, como uma atualização de registro de banco de dados, que fazem o agente lançar um plano de forma autônoma. Cada gatilho pode ter suas próprias condições e instruções. Gatilhos autônomos permitem que o agente aja proativamente iniciando fluxos de trabalho quando certas condições são atendidas, em vez de reagir apenas à entrada do chat do usuário.
Camadas de controle e limites de decisão
Em um agente de produção, não deixe cada decisão para a IA. Normalmente, existem três camadas de controle:
Camada determinística: Essa camada usa lógica tradicional baseada em regras que você ainda aplica para ações críticas ou irreversíveis. Por exemplo, ao processar um pagamento ou excluir um registro, você pode usar um tópico ou fluxo estritamente escrito que executa passo a passo, sem qualquer interpretação da IA. Essa camada também pode incluir verificações ou validações explícitas para dados sensíveis. Se algo precisa acontecer exatamente como especificado, trate de forma determinista. Você pode configurar o orquestrador generativo para não sobrescrever ou alterar esses fluxos. Na prática, você pode não expor tais ações ao planejador de IA ou sempre envolvê-las em um tópico que exija confirmação do usuário.
Camada híbrida (interceptação): Essa camada adiciona alguma flexibilidade de IA em torno de estruturas principalmente determinísticas. Você permite que o orquestrador opere dentro de limites definidos, com possibilidade de interceptação humana ou baseada em regras. Por exemplo, um agente pode automaticamente redigir uma resposta ou realizar uma ação, mas você pode inserir uma etapa de aprovação para que um gerente a revise. Ou o agente pode cuidar de uma tarefa até um certo limite de valor, e então ser obrigado a escalar. A camada híbrida pré-define pontos onde o plano autônomo da IA é atingido por checkpoint. Use essa abordagem para processos de risco médio: deixe a IA fazer o trabalho pesado, mas mantenha um humano informado para a supervisão.
Camada de orquestrador de IA: Esta camada é totalmente gerativa. O planejador de LLM tem liberdade (dentro de limites) para compor e executar planos para consultas de menor risco. A maioria das interações de perguntas e respostas, consultas de informações ou simples solicitações em vários passos se enquadra nessa categoria. Para a maioria das perguntas dos usuários, o agente pode decidir autonomamente como resolvê-las e agir. Essa camada oferece a adaptabilidade e o poder da IA generativa. Está vinculado às políticas. Por exemplo, a IA pode saber que não pode chamar certas ferramentas de administração ou revelar certas informações. O agente não precisa parar para pedir permissão para tarefas rotineiras.
Dadas essas camadas, definam explicitamente os limites de decisão. Veja quais ações e temas:
- Pode ser executado sem confirmação (a IA pode simplesmente fazer isso)
- Exija a confirmação do usuário durante a conversa (por exemplo, "Você tem certeza de que quer deletar todos os registros?")
- Exija aprovação offline (por exemplo, um administrador deve confirmar por meio de um fluxo de trabalho de aprovação)
Imponha esses limites através do design do seu tópico, por exemplo, adicionando um nó de confirmação, através dos recursos de aprovação da plataforma ou via lógica nos gatilhos. Ao sobrepor o controle, você garante que o agente opere com segurança — a IA cuida do que ela faz bem, enquanto humanos ou regras rígidas lidam com o que a IA não deveria decidir sozinha.
Melhores práticas para instruções do agente
Instruções de agente devidamente elaboradas influenciam a qualidade da geração de planos.
Relevância contextual
- Certifique-se de que as instruções se referem apenas às ferramentas e ao conhecimento disponíveis para o agente.
- Use os nomes exatos das ferramentas, nomes das variáveis e identificadores de Power Fx.
Diretrizes de conversação
- Especifique o formato da resposta (listas, tabelas, negrito).
- Forneça orientações estilísticas ("conciso", "inclua citações", "proponha os próximos passos").
- Evite nomear fontes específicas de conhecimento diretamente. Descreva-os em vez disso.
Determinar quando usar ferramentas ou conhecimento
- Prefiro usar nomes de ferramentas. Nomes têm mais peso do que descrições.
- Descreva as capacidades de conhecimento de forma genérica para evitar informações incorretas.
Instruções de execução autônoma
- Defina a sequência esperada de ações para fluxos de trabalho em múltiplas etapas.
- Combine instruções de processo com prompts específicos.
Saiba mais em Configurar instruções de alta qualidade para orquestração generativa.
Projetando entradas e saídas de tópicos
Ao criar tópicos, preste atenção especial aos parâmetros de entrada e saída no modo de orquestração generativa:
Defina parâmetros de entrada claros com descrições: Se um tópico ou ação exigir certas informações (como "Nome de usuário" para um tópico de redefinição de senha), crie uma entrada de tópico para ele e dê um nome descritivo e um exemplo. O orquestrador usa esses nomes e descrições para perguntar automaticamente ao usuário se o valor está faltando. Usar uma lista de valores aceitos ou uma fórmula de validação Power Fx para entradas pode ajudar a garantir que o bot colete dados válidos (por exemplo, restringir um código de país a duas letras).
Use o autoprompting: No modo generativo, o agente gera perguntas sozinho, em vez de exigir que você adicione manualmente nós de perguntas para solicitar informações faltantes. Essa abordagem é uma grande mudança em relação aos bots clássicos. O segredo é que seus nomes de entrada sejam amigáveis para humanos (por exemplo, "data de início", "endereço de e-mail") para que a IA possa formar uma pergunta natural. Se a pergunta gerada automaticamente pela IA não estiver formulada da melhor forma, considere refinar a descrição ou o nome da entrada. Esse recurso simplifica significativamente os diálogos, mas depende de comandos bem especificados.
Especifique os resultados para os tópicos quando apropriado: Um tópico pode produzir variáveis de saída que o orquestrador usa para compilar a resposta final. Por exemplo, um tópico chamado "Store Finder" pode gerar
NearestStoreLocation. Ao enviar informações em vez de enviar uma mensagem diretamente ao usuário, você permite que o orquestrador combine essas informações com outras etapas de forma elegante. Se o conteúdo de um tema for usado em uma resposta maior, capture-o como variável de saída e deixe o orquestrador cuidar da mensagem final. Saiba mais em Orquestrar o comportamento do agente com a IA generativa.Evite "manipular em dobro" dados nos prompts: Se você configurar saídas, não alimente essas saídas também no LLM como um contexto aberto. Por exemplo, se uma ação retornar um texto resumo, passe esse resumo como uma saída estruturada e deixe o orquestrador incluí-lo, em vez de escrever uma instrução como "O resultado da ação diz {resumo}." Essa abordagem impede que o modelo gere excessivamente ou repita conteúdo. Os resultados devem ser os pontos finais de dados sempre que possível.
Encadeando ações, tópicos e conhecimentos
Como o orquestrador pode usar múltiplas capacidades em um único turno, projete pensando na compostabilidade:
Dê nomes e descrições intuitivas a tudo: O planejador geralmente decide usar uma ferramenta ou tema com base em quão bem seu nome e descrição correspondem ao pedido do usuário. Use frases ativas que estejam alinhadas com as intenções do usuário. Por exemplo, uma ferramenta chamada "TranslateText" com a descrição "Traduz texto para um idioma especificado" tem mais chance de ser escolhida quando o usuário pergunta sobre tradução, em comparação com uma "Flow1" genericamente nomeada. Nomes importam mais do que qualquer coisa. Evite nomes enigmáticos. Se o agente escolher o tema errado, revise esses nomes e descrições.
Forneça um "toolkit" rico, mas o cure: conecte todas as ações úteis que seu cenário possa precisar (APIs, fluxos, etc.) e crie tópicos para fluxos importantes. Essa abordagem oferece à IA mais opções para resolver dúvidas. No entanto, remova ou desative ferramentas e tópicos que você saiba serem irrelevantes ou arriscados para o agente, para que não confundam o planejador. Um conjunto menor de escolhas de alta qualidade é melhor do que um conjunto exaustivo com sobreposições. Descrições sobrepostas podem fazer o agente tentar várias coisas ao mesmo tempo, o que pode não ser desejável.
Confie no planejador, dentro do razoável: uma vez que os componentes estejam bem definidos, permita que o orquestrador misture e combine. Por exemplo, se o usuário pergunta algo que poderia ser resolvido por um artigo de conhecimento ou uma API de dados em funcionamento, o planejador pode optar por usar ambos—recuperar o conhecimento para contexto e chamar a API para informações atuais. Essa abordagem pode gerar uma resposta superior. Abrace essa autonomia, mas observe desde cedo para garantir que boas escolhas sejam feitas.
Lidar com múltiplas intenções: Se uma consulta de usuário pede inerentemente duas coisas separadas (como "abra uma nova conta e me envie os detalhes"), o planejador generativo tenta cumprir ambas invocando as sequências relevantes por sua vez. Você não precisa scriptar manualmente o ramificação para multi-intenção. Seu trabalho como desenvolvedor é garantir que cada subtarefa (abertura de conta, envio de detalhes) seja coberta por alguma ferramenta ou tópico, e que suas saídas e entradas estejam conectadas, se necessário.
Deixe o conhecimento complementar tópicos e ferramentas: O orquestrador pode chamar a busca de conhecimento de forma proativa, não apenas como plano B. Se você tiver uma base de conhecimento rica configurada, o agente pode responder parte de uma consulta com um trecho de artigo de conhecimento mesmo que uma ação cubra outra parte. Esse comportamento é por design. Mantenha sua base de conhecimento atualizada com informações que não são facilmente acessíveis por ferramentas.
Esteja atento ao alcance do uso de dados: Atualmente, você não pode obrigar o agente a usar um artigo específico sob demanda. A IA escolhe artigos relevantes com base na consulta. Também note as limitações. Por exemplo, tópicos do sistema como "Múltiplos tópicos combinados" não são usados no modo generativo, já que o planejador lida com a desambiguação de forma diferente. Saiba mais sobre outras limitações conhecidas para orquestração generativa.
Testando e ajustando o agente orquestrado
A orquestração generativa transfere parte da lógica do design explícito para o "cérebro" da IA. Testes iterativos garantem que ele esteja funcionando como deveria. Aqui estão as melhores práticas para testar e melhorar seu agente orquestrado:
Use o mapa de atividade: O Copilot Studio fornece um mapa de atividades durante os testes, que mostra as etapas que o orquestrador decidiu. Após fazer uma pergunta complexa ao seu agente, inspecione o plano: Quais tópicos ou ações foram invocados? Em que ordem? Fez uma pergunta de acompanhamento apropriada? Se o agente escolheu o tema errado ou deixou passar uma ferramenta, talvez você precise refinar as descrições dos componentes ou ajustar instruções.
Revise as transcrições: Uma vez que o agente seja publicado, revise regularmente as transcrições ou registros das conversas. Procure alucinações ou imprecisões nas respostas. Se os usuários derem feedback como "isso não está correto", volte para ver por que o agente achou que sim. Resolva os problemas adicionando fatos faltantes à base de conhecimento, reforçando instruções ou, em alguns casos, adicionando um novo tema para preencher uma lacuna. Saiba mais em Extrair e analisar transcrições de conversas de agentes (arquitetura de referência).
Itere com pequenas mudanças: Você frequentemente pode melhorar um agente generativo fazendo mudanças sutis. Por exemplo, se a saída do agente for muito detalhada ou não estiver no formato desejado, ajuste as instruções sobre estilo e formato e teste novamente. Se ele invoca uma ferramenta desnecessária toda vez, talvez a descrição da ferramenta seja muito ampla e você possa refinar para que seja invocada apenas quando apropriado. Faça uma mudança de cada vez e perceba o efeito nas decisões do agente.
Forneça enunciados de exemplo (cuidadosamente): Você pode perceber que adicionar algumas perguntas de usuário de exemplo na descrição de um tópico pode ajudar o LLM a entender quando usar esse tema. Por exemplo: "Propósito: Redefinir a senha de um usuário. Por exemplo, o usuário pode dizer 'Esqueci minha senha' ou 'redefinir o acesso à minha conta Contoso'." Esses exemplos dão dicas extras ao modelo. Não exagere e mantenha as descrições sucintas e focadas. O modelo já tem muito contexto — só certifique-se de que seus metadados estejam claros.
Monitore métricas de desempenho: À medida que o uso cresce, fique atento a métricas-chave como taxa de sucesso (o agente realmente resolveu a solicitação do usuário?), taxa de recuo (com que frequência dizia "Desculpe, não posso ajudar com isso") e satisfação do usuário, se possível. Mesmo durante os testes, contagens simples de com que frequência cada tópico e ferramenta é usado podem indicar ajustes necessários. Por exemplo, se um tema trivial de conversa trivial está sendo invocado com muita frequência e adicionando barulho, desative-o ou restringa sua descrição. Revise orientações sobre como testar o desempenho dos seus agentes.
Sistemas generativos aprendem implicitamente com suas configurações e correções. Cada melhoria nas instruções ou metadados melhora a próxima decisão da IA. Com o tempo, seu agente orquestrado se torna mais preciso e eficiente no tratamento de consultas.
Gatilhos personalizados em orquestração generativa
Os gatilhos temáticos estão disponíveis especificamente para orquestração generativa. Ao usar esses gatilhos, você pode se conectar ao ciclo de vida do agente e injetar lógica personalizada em pontos críticos do processo de orquestração. Três gatilhos principais estão disponíveis:
| Trigger | Quando ele é acionado | Propósito |
|---|---|---|
| Sobre Conhecimento Solicitado | Logo antes do agente realizar uma consulta no banco de conhecimento | Esse gatilho permite interceptar o momento em que o orquestrador está prestes a pesquisar nas fontes de conhecimento. Ele oferece acesso somente leitura às SearchPhrase palavras-chave ou que o agente pretende usar, além de uma variável do sistema para fornecer resultados de busca personalizados. Por exemplo, você pode capturar a consulta e encaminhá-la para um índice proprietário ou injetar mais dados nos resultados.Este é um gatilho avançado ("secreto") — não é visível na interface por padrão e atualmente deve ser ativado via edição YAML (nomeando exatamente OnKnowledgeRequestedum tópico). Use-o se precisar complementar ou personalizar a etapa de recuperação de conhecimento, como filtrar certos resultados ou mesclar dados externos na resposta de conhecimento. |
| Resposta Gerada por IA | Depois que a IA compõe uma resposta preliminar, mas antes de ser enviada ao usuário | O agente dispara esse gatilho assim que ele constrói o texto final da resposta (baseado em todas as ferramentas e tópicos) e pouco antes de entregá-lo. Essa etapa te dá a chance de modificar programaticamente a resposta ou suas citações. Por exemplo, você pode fazer um pós-processamento do texto para corrigir qualquer formatação, ou substituir URLs brutas por links de rastreamento amigáveis. Você pode até decidir anular a resposta. O gatilho pode gerar uma mensagem personalizada própria, e você pode usar uma ContinueResponse flag para indicar se a resposta original da IA ainda deve ser enviada ou não.Use esse gatilho para ajustes ou melhorias de última hora na resposta da IA, como adicionar um prompt de pesquisa ou redigir algo que a IA incluiu, mas que você quer remover. O uso intenso desse gatilho pode indicar alguma lógica que poderia estar nas instruções principais. Use para controle detalhado quando necessário. |
| Plano Concluído | Depois que todo o plano é executado e a resposta é enviada | Uma vez que o plano está pronto, ou seja, todas as etapas concluídas e o usuário vê a resposta, esse gatilho dispara. Normalmente, use-o para iniciar qualquer processo final de conversa. Um uso comum é redirecionar a conversa para um tema final específico ou para uma pesquisa. Por exemplo, você pode ter um tópico de fim de bate-papo que agradece ao usuário ou forneça os próximos passos. Usando o On Plan Complete, você pode chamar esse tópico automaticamente. No entanto, tenha cuidado: provavelmente você não vai querer encerrar a conversa após cada pergunta do usuário, especialmente se algum usuário fizer perguntas de acompanhamento. Adicione lógica para terminar somente se uma determinada variável de contexto estiver definida ou se o plano resolveu um tipo específico de requisição. Basicamente, use o On Plan Complete para ações de limpeza ou fechamento gradual quando apropriado. |
Capacidades mais de orquestração generativa
Aprofunde seu entendimento do modelo de orquestração do Copilot Studio com capacidades avançadas que ampliam a forma como os agentes planejam, agem e colaboram:
- Projete capacidades de agentes autônomos: Construa agentes que atuem proativamente usando gatilhos, limites de decisão e proteções.
- Explore padrões de orquestração multi-agente: Aprenda como múltiplos agentes coordenam, delegam tarefas e trocam contexto para resolver fluxos de trabalho complexos.