Compartir a través de


Preguntas frecuentes sobre la experiencia de creación de agente

Estas preguntas frecuentes (FAQ) describen el impacto de la inteligencia artificial en la experiencia de creación de agentes de conversación en Copilot Studio.

¿Qué es la experiencia de creación de agente conversacional?

La experiencia conversacional de creación de agente se utiliza para ayudarle a crear un agente personalizado o un agente de Copilot. A través de la conversación, predice el nombre, la descripción y las instrucciones del agente, admite la adición de orígenes de conocimiento y genera avisos sugeridos (para agentes de Copilot).

¿Cuáles son las funcionalidades de la experiencia de creación de agentes conversacionales?

Puede empezar a trabajar rápidamente con un agente personalizado o una configuración del agente de Copilot a través de una interfaz de lenguaje natural. El sistema actualiza la configuración en función de la entrada durante la conversación.

¿Cuál es el uso previsto de la experiencia de creación de agentes conversacionales?

Puede utilizar esta experiencia para comenzar la configuración inicial del agente.

¿Cómo se evaluó la experiencia de creación del agente conversacional y qué métricas se utilizan para medir el rendimiento?

Evaluamos la precisión del sistema en cuanto a qué tan bien la configuración predicha representaba las solicitudes a través de la conversación para garantizar la calidad. También probamos para asegurarnos de que el sistema no produce contenido dañino o malintencionado.

¿Cuáles son las limitaciones de la experiencia de creación del agente conversacional y cómo pueden los usuarios minimizar el impacto de las limitaciones al usarla?

  • La experiencia conversacional de creación de agente solo admite ciertos idiomas. Es posible que pueda usar otros lenguajes, pero las respuestas generadas podrían ser incoherentes o inesperadas.

  • Esta experiencia solo se puede usar para configurar:

    • El nombre
    • La descripción
    • Instrucciones que crean el agente
    • Subconjunto de los tipos de origen de conocimiento admitidos
    • Solicitudes sugeridas para agentes de Copilot
  • Consulte las preguntas frecuentes sobre IA responsable para conocer otras consideraciones y limitaciones al usar respuestas generativas en agentes que crea con esta característica.

¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable de la experiencia de creación de agentes conversacionales?

Puede usar lenguaje natural para conversar con el sistema a través del chat, o puede editar directamente la configuración manualmente. Si edita manualmente, el sistema podría actualizar la configuración del agente con información adicional a medida que continúa la conversación.

¿Qué protecciones existen en Copilot Studio para la IA responsable?

Las respuestas generativas incluyen varias protecciones para garantizar que los administradores, creadores y usuarios disfruten de una experiencia segura y conforme a las normas. Los administradores tienen control total sobre las características de su inquilino y siempre pueden desactivar la capacidad de publicar agentes con respuestas generativas en su organización. Los creadores pueden agregar instrucciones personalizadas para influir en los tipos de respuestas que devuelven sus agentes. Para obtener más información acerca de los procedimientos recomendados para escribir instrucciones personalizadas, consulte Usar modificación de indicaciones para proporcionar instrucciones personalizadas a su agente.

Los creadores también pueden limitar las fuentes de conocimiento que los agentes pueden utilizar para responder preguntas. Para permitir que los agentes respondan preguntas fuera del alcance de sus fuentes de conocimiento configuradas, los creadores pueden activar la característica Conocimiento general de IA. Para limitar a los agentes a responder solo preguntas en el ámbito de sus fuentes de conocimiento configuradas, los creadores deben desactivar esta característica.

Copilot Studio también aplica políticas de moderación de contenido en todas las solicitudes de IA generativa para proteger a los administradores, creadores y usuarios contra contenido ofensivo o dañino. Estas directivas de moderación de contenido también se extienden a los intentos maliciosos de liberación, inyección de avisos, exfiltración de avisos e infracción de derechos de autor. Todo el contenido se comprueba dos veces: primero durante la entrada del usuario y de nuevo cuando el agente está a punto de responder. Si el sistema encuentra contenido dañino, ofensivo o malintencionado, impide que el agente responda.

Por último, se recomienda comunicar a los usuarios que el agente utiliza inteligencia artificial, por lo que el siguiente mensaje predeterminado informa a los usuarios: "Solo para que lo tenga en cuenta, a veces utilizo IA para responder a sus preguntas".