Comparteix via


Aplicar capacidades de orquestación generativa

La orquestación generativa es la evolución del desarrollo de agentes conversacionales en Copilot Studio. Introduce una capa de planificación basada en un gran modelo de lenguaje (LLM) que interpreta la intención del usuario, desglosa solicitudes complejas, selecciona las herramientas y conocimientos adecuados y ejecuta planes en varios pasos con garantías de seguridad y cumplimiento. En lugar de depender únicamente de temas de conversación hechos a mano, la orquestación generativa compone bloques de construcción reutilizables—acciones, temas, fuentes de conocimiento, agentes hijos y desencadenantes autónomos—en flujos de trabajo inteligentes.

En Copilot Studio, habilitar la orquestación generativa ofrece mejores respuestas con menos scripting manual. En este artículo, aprendes sobre la arquitectura detrás de la orquestación generativa y cómo crear instrucciones efectivas y probar y ajustar tus agentes orquestados.

¿Por qué importa la orquestación generativa?

Los diseños tradicionales basados en temas requieren múltiples temas elaborados a mano, ramificaciones rígidas y lógica manual de relleno de ranuras. Este enfoque puede conducir a:

  • Grandes inventarios temáticos con lógica solapada.
  • Dificultad para manejar enunciados ambiguos o con múltiples intenciones.
  • Experiencias inconsistentes cuando los usuarios formulan las preguntas de forma diferente.
  • Alto coste de mantenimiento cuando cambian las APIs o las reglas de negocio.

La orquestación generativa resuelve estos desafíos mediante:

  • Reducir la dispersión de temas mediante la composición de bloques de construcción reutilizables.
  • Automatizar el relleno de ranuras basado en definiciones de entrada.
  • Adaptar dinámicamente el estilo de respuesta y la estructura del plan.
  • Mejorar la relevancia mediante la recuperación semántica de conocimiento.
  • Habilitar sugerencias proactivas de siguiente paso.

Arquitectura y componentes

A un nivel general, un agente orquestador generativo consta de varios componentes clave que trabajan juntos:

  • Orchestrator (planificador): El cerebro del agente impulsado por LLM que convierte una entrada, como un mensaje o evento de usuario, en un plan estructurado. El orquestador identifica las intenciones, elige qué herramientas, temas o agentes invocar en cada paso y define la secuencia y el flujo de datos entre pasos. Genera una lista ordenada de pasos (un "plan") que el tiempo de ejecución ejecuta y asegura que cada paso esté dentro de la política. Por ejemplo, busca la aprobación para acciones sensibles.

  • Capa de conocimiento: Un conjunto de fuentes de recuperación, como bases de conocimiento internas, documentos, bases de datos y más, que el agente puede consultar para fundamentar sus respuestas. El orquestador utiliza esta capa para obtener información o orientación factual. Los resultados suelen incluir citas y metadatos, que el agente puede incorporar en las respuestas para mayor transparencia. La capa de conocimiento es de solo lectura y proporciona evidencia o contexto.

  • Herramientas y conectores: acciones externas, APIs o flujos de automatización que el agente puede llamar como parte de un plan. Cada herramienta tiene una interfaz definida: parámetros de entrada (con tipos esperados), variables de salida y posiblemente condiciones de error. Son esencialmente las "habilidades" del agente para realizar operaciones, como buscar un pedido, enviar un correo electrónico o ejecutar un guion. Deberías probar a fondo las herramientas y asegurarte de que se comportan de forma determinista con las mismas entradas, ya que el orquestador las trata como funciones fiables.

  • Temas y agentes en línea: Temas de conversación reutilizables o mini-diálogos que encapsulan una lógica específica. En orquestación generativa, el planificador puede invocar temas no solo mediante frases desencadenantes, sino también cuando su propósito descrito coincide con la necesidad del usuario. Los agentes en línea se refieren a temas o rutinas pequeñas y enfocadas que se utilizan como subpasos dentro de un plan más amplio. Se ejecutan dentro del contexto del agente principal y gestionan tareas discretas para que el orquestador principal no tenga que programar explícitamente esos detalles.

  • Disparadores de eventos (autonomía): Mecanismos que inician el orquestador sin un mensaje de usuario. Estos mecanismos pueden ser disparadores programados o basados en eventos, como una actualización de registros de base de datos, que hacen que el agente lance un plan de forma autónoma. Cada disparador puede tener sus propias condiciones e instrucciones. Los disparadores autónomos permiten al agente actuar de forma proactiva iniciando flujos de trabajo cuando se cumplen ciertas condiciones, en lugar de reaccionar solo a la entrada del chat del usuario.

Capas de control y límites de decisión

En un agente de producción, no dejes cada decisión a la IA. Normalmente, existen tres capas de control:

  • Capa determinista: Esta capa utiliza lógica tradicional basada en reglas que aún se aplica para acciones críticas o irreversibles. Por ejemplo, al procesar un pago o eliminar un registro, puedes usar un tema o flujo estrictamente escrito que se ejecute paso a paso sin ninguna interpretación de la IA. Esta capa también puede incluir comprobaciones o validaciones explícitas para datos sensibles. Si algo debe ocurrir exactamente como se especifica, trátalo de forma determinista. Puedes configurar el orquestador generativo para que no anule ni cambie estos flujos. En la práctica, puede que no expongas estas acciones al planificador de IA o que siempre las involucres en un tema que requiera confirmación del usuario.

  • Capa híbrida (interceptación): Esta capa añade cierta flexibilidad de IA alrededor de estructuras mayormente deterministas. Permites que el orquestador opere dentro de límites establecidos con posibilidad de intercepción humana o basada en reglas. Por ejemplo, un agente puede redactar automáticamente una respuesta o realizar una acción, pero puedes insertar un paso de aprobación para que un responsable la revise. O el agente puede gestionar una tarea hasta cierto límite de valor y luego tener que escalar. La capa híbrida predefine los puntos donde el plan autónomo de la IA se controla. Utiliza este enfoque para procesos de riesgo medio: deja que la IA haga el trabajo duro, pero mantén a un humano informado para supervisar.

  • Capa orquestadora de IA: Esta capa es completamente generativa. El planificador LLM tiene libertad (dentro de límites) para redactar y ejecutar planes para consultas de menor riesgo. La mayoría de las interacciones de preguntas y respuestas, consultas de información o solicitudes simples de varios pasos entran en esta categoría. Para la mayoría de las preguntas de los usuarios, el agente puede decidir de forma autónoma cómo resolverlas y actuar. Esta capa proporciona la adaptabilidad y el poder de la IA generativa. Está sujeto a políticas. Por ejemplo, la IA podría saber que no está permitido llamar a ciertas herramientas de administración ni revelar cierta información. El agente no necesita parar a pedir permiso para tareas rutinarias.

Dadas estas capas, se definen explícitamente los límites de decisión. Mira qué acciones y temas:

  • Se puede ejecutar sin confirmación (la IA puede hacerlos sin más).
  • Exige la confirmación del usuario dentro de la conversación (por ejemplo, "¿Estás seguro de que quieres borrar todos los registros?")
  • Requiere aprobación offline (por ejemplo, un administrador debe confirmar mediante un flujo de trabajo de aprobación)

Haz cumplir estos límites a través del diseño de tu tema, por ejemplo añadiendo un nodo de confirmación, mediante las funciones de aprobación de la plataforma o mediante la lógica en los disparadores. Al superponer el control, aseguras que el agente actúe de forma segura: la IA se encarga de lo que sabe hacer mientras que los humanos o las reglas estrictas se encargan de lo que la IA no debería decidir sola.

Procedimientos recomendados para las instrucciones del agente

Las instrucciones del agente correctamente redactadas influyen en la calidad de la elaboración de planos.

  • Relevancia contextual

    • Asegúrate de que las instrucciones solo mencionen las herramientas y conocimientos disponibles para el agente.
    • Usa los nombres exactos de las herramientas, nombres de variables e identificadores de Power Fx.
  • Directrices conversacionales

    • Especifica el formato de respuesta (listas, tablas, negrita).
    • Proporciona orientación estilística ("conciso", "incluye citas", "propone los siguientes pasos").
    • Evita nombrar directamente fuentes de conocimiento específicas. Descríbelos en su lugar.
  • Determinar cuándo usar herramientas o conocimientos

    • Prefiero usar nombres de herramientas. Los nombres tienen más peso que las descripciones.
    • Describe las capacidades de conocimiento de forma genérica para evitar información incorrecta.
  • Instrucciones de ejecución autónomas

    • Define la secuencia de acciones esperada para flujos de trabajo de varios pasos.
    • Combina las instrucciones del proceso con indicaciones específicas.

Aprende más en Configurar instrucciones de alta calidad para orquestación generativa.

Diseño de entradas y salidas temáticas

Al crear temas, presta especial atención a sus parámetros de entrada y salida en modo de orquestación generativa:

  • Define parámetros de entrada claros con descripciones: Si un tema o acción requiere cierta información (como "Nombre de usuario" para un tema de restablecimiento de contraseña), crea una entrada de tema para él y dale un nombre descriptivo y un ejemplo. El orquestador utiliza estos nombres y descripciones para preguntar automáticamente al usuario si falta el valor. Utilizar una lista de valores aceptados o una fórmula de validación Power Fx para las entradas puede ayudar a garantizar que el bot recopile datos válidos (por ejemplo, restringir un código de país a dos letras).

  • Utiliza el auto-prompting: En modo generativo, el agente genera preguntas por sí mismo en lugar de tener que añadir manualmente nodos de pregunta para pedir información faltante. Este enfoque supone un cambio importante respecto a los bots clásicos. La clave es que tus nombres de entrada sean amigables para las personas (por ejemplo, "fecha de inicio", "dirección de correo electrónico") para que la IA pueda formar una pregunta natural. Si la pregunta generada automáticamente por la IA no está formulada de forma ideal, considera refinar la descripción o el nombre de la entrada. Esta función agiliza significativamente los diálogos, pero depende de entradas bien específicas.

  • Especifica los resultados para los temas cuando sea apropiado: Un tema puede producir variables de salida que el orquestador utiliza para compilar la respuesta final. Por ejemplo, un tema de "Store Finder" podría generar NearestStoreLocation. Al enviar información en lugar de enviar un mensaje directamente al usuario, permites que el orquestador combine esa información con otros pasos de forma elegante. Si el contenido de un tema se utiliza en una respuesta más amplia, capturarlo como variable de salida y deja que el orquestador gestione el mensaje final. Obtenga más información en Orquestar el comportamiento del agente con ia generativa.

  • Evita "doble manejo" de datos en los prompts: Si configuras salidas, no alimentes también esas salidas al LLM como contexto abierto. Por ejemplo, si una acción devuelve un texto resumen, pasa ese resumen como una salida estructurada y deja que el orquestador lo incluya, en lugar de escribir una instrucción como "El resultado de la acción dice {resumen}." Este enfoque evita que el modelo genere en exceso o repita contenido. Las salidas deben ser los datos finales siempre que sea posible.

Encadenando acciones, temas y conocimientos

Como el orquestador puede usar múltiples capacidades en un solo turno, diseña pensando en la componibilidad:

  • Ponle a todo nombres y descripciones intuitivas: El planificador decide en gran medida usar una herramienta o tema en función de lo bien que su nombre y descripción coincidan con la petición del usuario. Utiliza frases activas que se alineen con las intenciones del usuario. Por ejemplo, una herramienta llamada "TranslateText" con la descripción "Traduce texto a un idioma especificado" es más probable que se elija cuando el usuario pregunta sobre traducir, en comparación con una "Flow1" de nombre genérico. Los nombres importan más que nada. Evita nombres crípticos. Si el agente elige el tema equivocado, revisa esos nombres y descripciones.

  • Proporciona un "conjunto de herramientas" rico pero curáralo: conecta todas las acciones útiles que tu escenario pueda necesitar (APIs, flujos, etc.) y crea temas para flujos importantes. Este enfoque ofrece a la IA más opciones para resolver consultas. Sin embargo, elimina o desactiva herramientas y temas que sepas que son irrelevantes o arriesgados para el agente, para que no confundan al planificador. Un conjunto más pequeño de opciones de alta calidad es mejor que un conjunto exhaustivo con solapamientos. Las descripciones superpuestas pueden hacer que el agente pruebe varias cosas a la vez, lo cual puede no ser lo ideal.

  • Confía en el planificador, dentro de lo razonable: una vez que los componentes estén bien definidos, permite que el orquestador combine y combine. Por ejemplo, si el usuario pregunta algo que podría abordarse mediante un artículo de conocimiento o una API de datos en vivo, el planificador podría optar por usar ambas: recuperar el conocimiento para contexto y llamar a la API para obtener información actual. Este enfoque puede dar una respuesta superior. Abraza esta autonomía, pero observa desde el principio para asegurarte de que se toman buenas decisiones.

  • Maneja múltiples intenciones: Si una consulta de usuario pide inherentemente dos cosas distintas (como "abre una cuenta nueva y envíame los detalles"), el planificador generativo intenta cumplir ambas invocando las secuencias relevantes a su vez. No necesitas programar manualmente el raming para multi-intenciones. Tu trabajo como desarrollador es asegurarte de que cada subtarea (apertura de cuenta, envío de detalles) esté cubierta por alguna herramienta o tema, y que sus salidas y entradas estén conectadas si es necesario.

  • Deja que el conocimiento complemente temas y herramientas: El orquestador puede llamar a la búsqueda de conocimiento de forma proactiva, no solo como respaldo. Si tienes una base de conocimiento rica configurada, el agente puede responder a parte de una consulta con un fragmento de artículo de conocimiento incluso si una acción cubre otra parte. Este comportamiento es por diseño. Mantén tu base de conocimientos actualizada con información que no esté fácilmente disponible a través de herramientas.

  • Ten en cuenta el alcance del uso de datos: Actualmente, no puedes obligar al agente a usar un artículo específico bajo demanda. La IA elige los artículos relevantes en función de la consulta. También ten en cuenta las limitaciones. Por ejemplo, temas de sistema como "Múltiples temas emparejados" no se usan en modo generativo, ya que el planificador gestiona la desambiguación de forma diferente. Aprende más sobre otras limitaciones conocidas de la orquestación generativa.

Pruebas y ajuste del agente orquestado

La orquestación generativa traslada parte de la lógica del diseño explícito al "cerebro" de la IA. Las pruebas iterativas aseguran que se comporte como se espera. Aquí tienes las mejores prácticas para probar y mejorar tu agente orquestado:

  • Utiliza el mapa de actividades: Copilot Studio proporciona un mapa de actividad durante las pruebas, que muestra los pasos que el orquestador decidió. Después de hacerle una consulta compleja a tu agente, revisa el plan: ¿Qué temas o acciones se han invocado? ¿En qué orden? ¿Hizo una pregunta de seguimiento adecuada? Si el agente eligió el tema equivocado o se le olvidó una herramienta, puede que tengas que refinar las descripciones de los componentes o ajustar las instrucciones.

  • Revisa las transcripciones: Una vez que el agente haya sido publicado, revisa regularmente las transcripciones o registros de la conversación. Busca alucinaciones o inexactitudes en las respuestas. Si los usuarios dan feedback como "eso no es correcto", revisa por qué el agente pensó que sí. Aborda los problemas añadiendo datos faltantes a la base de conocimiento, ajustando instrucciones o, en algunos casos, añadiendo un nuevo tema para cubrir una laguna. Aprende más en Extraer y analizar las transcripciones de conversaciones de agentes (arquitectura de referencia).

  • Iterar con pequeños cambios: A menudo puedes mejorar un agente generativo haciendo cambios sutiles. Por ejemplo, si la salida del agente es demasiado extensa o no está en el formato deseado, ajusta las instrucciones sobre estilo y formato y prueba de nuevo. Si invoca una herramienta innecesaria cada vez, quizá la descripción de la herramienta sea demasiado amplia y puedas refinarla para que solo se invoque cuando sea apropiado. Haz un cambio a la vez y observa el efecto en las decisiones del agente.

  • Proporciona enunciados de ejemplo (con cuidado): Puede que descubras que añadir un par de consultas de usuario de ejemplo en la descripción de un tema puede ayudar al LLM a entender cuándo usar ese tema. Por ejemplo: "Propósito: Restablecer la contraseña de un usuario. Por ejemplo, un usuario podría decir 'He olvidado mi contraseña' o 'restablecer el acceso a mi cuenta de Contoso'." Estos ejemplos le dan pistas extra. No te pases y mantén las descripciones concisas y enfocadas. El modelo ya tiene mucho contexto—solo asegúrate de que tus metadatos estén claros.

  • Monitoriza las métricas de rendimiento: A medida que el uso crece, vigila métricas clave como la tasa de éxito (¿el agente realmente resolvió la solicitud del usuario?), la tasa de respaldo (cuántas veces decía "Lo siento, no puedo ayudar con eso") y la satisfacción del usuario si está disponible. Incluso durante las pruebas, simples recuentos de la frecuencia con la que se utiliza cada tema y herramienta pueden indicar ajustes necesarios. Por ejemplo, si se invoca un tema trivial de conversación trivial con demasiada frecuencia y añade ruido, desactivarlo o acotar su descripción. Revisa la guía sobre cómo evaluar el rendimiento de tus agentes.

Los sistemas generativos aprenden implícitamente de tus configuraciones y soluciones. Cada mejora en instrucciones o metadatos mejora la siguiente decisión de la IA. Con el tiempo, tu agente coordinado se vuelve más preciso y eficiente a la hora de gestionar consultas.

Disparadores personalizados en orquestación generativa

Los disparadores temáticos están disponibles específicamente para orquestación generativa. Al usar estos disparadores, puedes conectarte al ciclo de vida del agente e inyectar lógica personalizada en puntos críticos del proceso de orquestación. Hay tres desencadenantes principales disponibles:

Trigger Cuando se activa Propósito
Sobre el conocimiento solicitado Justo antes de que el agente realice una consulta en la base de datos Este disparador te permite interceptar el momento en que el orquestador está a punto de buscar en las fuentes de conocimiento. Proporciona acceso de solo lectura a las SearchPhrase palabras clave o que el agente pretende usar, y una variable del sistema para proporcionar resultados de búsqueda personalizados. Por ejemplo, podrías detectar la consulta y enrutarla a un índice propietario o inyectar más datos en los resultados.
Este es un disparador avanzado ("secreto": no es visible en la interfaz por defecto y actualmente debe activarse mediante una edición YAML (nombrando exactamente OnKnowledgeRequestedun tema). Úsalo si necesitas complementar o personalizar el paso de recuperación de conocimiento, como filtrar ciertos resultados o fusionar datos externos en la respuesta de conocimiento.
Respuesta generada por IA Después de que la IA redacte un borrador de respuesta, pero antes de que se envíe al usuario El agente activa este disparador una vez que construye el texto final de respuesta (basado en todas las herramientas y temas) y justo antes de entregarlo. Este paso te da la oportunidad de modificar programáticamente la respuesta o sus citas. Por ejemplo, podrías postprocesar el texto para corregir cualquier formato, o reemplazar las URLs en bruto por enlaces de seguimiento amigables. Incluso puedes decidir anular la respuesta. El disparador puede generar un mensaje personalizado propio, y puedes usar una ContinueResponse bandera para indicar si la respuesta original de la IA debe enviarse o no.
Usa este disparador para ajustes o mejoras de última hora en la respuesta de la IA, como añadir una pregunta de encuesta o redactar algo que la IA incluyó pero que quieres eliminar. El uso intensivo de este disparador podría indicar cierta lógica que podría haber estado en las instrucciones principales. Úsalo para un control detallado cuando sea necesario.
En Plan Terminado Después de que todo el plan se ejecute y se envíe la respuesta Una vez que un plan está hecho, es decir, todos los pasos completados y el usuario ve la respuesta, se activa este disparador. Normalmente, úsalo para iniciar cualquier proceso final de conversación. Un uso común es redirigir la conversación hacia un tema final específico o hacia una encuesta. Por ejemplo, podrías tener un tema de fin de chat que agradezca al usuario o que proporcione los siguientes pasos. Al usar On Plan Complete, puedes llamar automáticamente a ese tema.
Sin embargo, ten cuidado: probablemente no quieras terminar la conversación después de cada pregunta del usuario, especialmente si un usuario puede hacer preguntas de seguimiento. Añadir lógica para terminar solo si se establece una determinada variable de contexto o si el plan resolvió un tipo particular de solicitud. Básicamente, utiliza On Plan Complete para realizar tareas de limpieza o cerrar de forma elegante cuando sea apropiado.

Más capacidades de orquestación generativa

Profundiza tu comprensión del modelo de orquestación de Copilot Studio con capacidades avanzadas que amplían la forma en que los agentes planifican, actúan y colaboran: