Comparteix via


Preguntas más frecuentes sobre aprobaciones de IA

Estas preguntas más frecuentes explican las funcionalidades, el uso y las medidas de seguridad de las fases de aprobación con tecnología de IA (aprobaciones de IA) en Microsoft Copilot Studio. Las aprobaciones de IA permiten que un flujo de agente apruebe o rechace automáticamente las solicitudes en función de criterios predefinidos, a la vez que garantiza que los seres humanos sigan controlándose para decisiones importantes. A continuación, se incluyen algunas preguntas y respuestas frecuentes sobre esta característica.

¿Qué son las aprobaciones de IA?

Las aprobaciones de IA son pasos de decisión inteligentes y automatizados en los flujos de trabajo de aprobación. Las aprobaciones de IA usan IA (modelos o modelos de Azure OpenAI que puede traer de Fundición de IA de Azure) para evaluar las solicitudes de aprobación en las reglas de negocio y devolver una decisión "Aprobada" o "Rechazada" con una justificación.

¿Qué son las funcionalidades de aprobaciones de IA?

A diferencia de la automatización básica basada en reglas, las aprobaciones de IA pueden interpretar datos no estructurados y documentos complejos (como archivos PDF o imágenes adjuntas a una solicitud) y aplicar lógica matizadas para tomar una decisión. Por ejemplo, una aprobación de IA podría leer una justificación escrita, comprobar si hay palabras clave de directiva y, a continuación, decidir.

Las fases de aprobación de IA también se pueden combinar con las fases humanas, de modo que, mientras que la IA controla las decisiones rutinarias, las personas siguen supervisando y finalizan los casos críticos o excepcionales. En resumen, las aprobaciones de IA automatizan las decisiones repetitivas yes/no en un proceso, lo que acelera los flujos de trabajo sin quitar la supervisión humana donde importa.

¿Cuál es el uso previsto de las aprobaciones de IA?

Las aprobaciones de IA están diseñadas para escenarios empresariales comunes con criterios bien definidos, lo que simplifica los flujos de trabajo diarios mediante la automatización de decisiones rutinarias. Entre los casos de uso típicos se incluyen:

Aprobaciones de reembolso de gastos: apruebe automáticamente las reclamaciones en determinadas cantidades con recibos válidos, lo que permite a los administradores centrarse solo en excepciones.

Aprobaciones de pedido de compra (PO): evalúe las solicitudes con respecto a los límites de presupuesto y las listas de proveedores, aprobando automáticamente los PO estándar dentro de la directiva.

Aprobaciones de solicitudes de viaje: apruebe automáticamente las solicitudes de viaje compatibles al rechazar solicitudes con infracciones de directiva.

Incorporación de proveedores: acepte o rechace las aplicaciones comprobando las calificaciones y los requisitos de cumplimiento con los criterios predefinidos.

Aprobaciones de procesamiento de facturas: valide las facturas haciendo coincidir los importes de los pedidos de compra y confirmando que la documentación necesaria está presente.

Aprobaciones de revisión de documentos: confirme que los contratos o directivas incluyen elementos necesarios y cumplen los estándares de formato antes de avanzar a los pasos siguientes.

Aprobaciones de solicitudes de tiempo de expiración: apruebe solicitudes de permiso cuando los empleados tengan un equilibrio suficiente y no existan conflictos de programación.

Las aprobaciones de IA se diseñaron para decisiones rutinarias y bien definidas. Sin embargo, hay escenarios en los que el sistema podría no realizar de forma fiable o responsable. Animamos a los clientes a que usen aprobaciones de IA en sus soluciones o aplicaciones innovadoras, pero tenga en cuenta los siguientes principios al elegir un caso de uso:

  • Decisiones de alto riesgo o de alteración de la vida: el sistema no se diseñó para controlar las decisiones que afectan a la salud, la seguridad, las finanzas o el estado legal. Entre los ejemplos se incluyen reclamaciones de seguros, autorizaciones médicas, aprobaciones de préstamos o determinaciones de inmigración, que requieren juicio humano y responsabilidad.

  • Asuntos legales o disciplinares: los casos de uso que impliquen responsabilidad legal, interpretación de cumplimiento o disciplina del empleado pueden superar el ámbito previsto del sistema. Aunque la IA puede resumir las entradas, las decisiones finales de estas áreas deben permanecer con los seres humanos.

  • Criterios subjetivas o ambiguos: el sistema podría tener dificultades con las decisiones que dependen del gusto, la discreción o las ventajas complejas, como evaluar el trabajo creativo o evaluar la calidad, donde los estándares no se codifiquen fácilmente.

  • Escenarios confidenciales o éticos complejos: las aprobaciones de IA no se diseñaron para decisiones relacionadas con atributos personales, discriminación potencial ni generación de contenido restringido. Estos usos generan preocupaciones de IA responsable y pueden requerir medidas de seguridad adicionales.

  • Sectores regulados y flujos de trabajo sensibles al cumplimiento: en dominios como atención sanitaria, finanzas o aviación, los requisitos normativos podrían requerir supervisión humana incluso para tomar decisiones rutinarias. El sistema no se evaluó para el cumplimiento en estos contextos.

  • Usos previsibles pero no deseados: a medida que crece la adopción, los usuarios pueden intentar aplicar aprobaciones de IA a áreas como revisiones de rendimiento, decisiones de contratación o evaluaciones de elegibilidad de los clientes. Estos usos no formaron parte del diseño o evaluación de impacto del sistema y podrían presentar riesgos si no se administran cuidadosamente.

Importante

Consideraciones legales y normativas. Las organizaciones deben evaluar posibles obligaciones legales y normativas específicas al usar cualquier servicio y soluciones de IA. Es posible que los servicios y soluciones no sean adecuados para su uso en todos los sectores o escenarios. Las restricciones pueden variar en función de los requisitos normativos regionales o locales. Además, los servicios o soluciones de IA no están diseñados para ser utilizados de formas prohibidas en los términos de servicio aplicables y los códigos de conducta pertinentes, y no pueden utilizarse de ese modo.

¿Cuáles son las limitaciones técnicas de las aprobaciones de IA y cómo pueden los usuarios minimizar el impacto de las limitaciones?

Aunque las aprobaciones de IA son una funcionalidad eficaz, instamos a los usuarios a tener en cuenta sus limitaciones:

Las aprobaciones de IA se basan en reglas proporcionadas: la inteligencia artificial sigue estrictamente las instrucciones y los datos. Si la solicitud no está clara o incompleta, la aprobación de la inteligencia artificial podría tomar decisiones incorrectas o fallar. Definir criterios explícitamente; decir "aprobar si es razonable" sin definir "razonable" conduce a una interpretación incorrecta.

Posibilidad de errores: las aprobaciones de IA pueden cometer errores debido a entradas ambiguas, casos perimetrales complejos o errores de lectura de documentos examinados de forma incorrecta. Las salidas no siempre son 100 % precisas, por lo que la supervisión es esencial para los casos de línea de borde.

Falta de intuición humana: las aprobaciones de IA no comprenden el contexto más allá de lo que se les indica y no pueden hacer preguntas aclaratorias ni basarse en sus intuiciones. La aprobación de IA podría perder matices que detectaría una persona, como detectar gastos sospechosos que "parecen demasiado altos para ese viaje".

Sin aprendizaje de la experiencia: las aprobaciones de IA no se adaptan a cada aprobación; no cambian el comportamiento a menos que actualice el mensaje. Los nuevos escenarios no cubiertos por las reglas existentes requieren mantenimiento continuo a medida que evolucionan las directivas.

Dependencia de calidad de datos: las decisiones de aprobación de IA solo son tan buenas como los datos de entrada. Los archivos de mala calidad, los documentos incompletos o los exámenes ilegibles pueden provocar decisiones incorrectas o errores del sistema.

Restricciones de integración y rendimiento: los criterios de aprobación complejos o las decisiones que requieren datos en tiempo real de varios sistemas pueden reducir la precisión y aumentar el tiempo de procesamiento.

Requiere una configuración responsable: los usuarios deben configurar las aprobaciones de IA de forma ética, con reglas adecuadas para errores humanos y sin sesgos. Asegúrese siempre de que las instrucciones se alineen con las directrices éticas y de la directiva de la empresa.

Sin acceso a la información en tiempo real: las aprobaciones de IA solo pueden funcionar con datos proporcionados explícitamente como entrada. No pueden comprobar los eventos, noticias o asuntos actuales a menos que esa información se incluya en el proceso de aprobación.

Para reducir los riesgos y mejorar la fiabilidad al usar aprobaciones de IA:

  • Incluir supervisión humana: enrutar casos críticos o ambiguos a las fases de revisión manual para garantizar la responsabilidad y el juicio.

  • Prueba con diversos ejemplos: use datos históricos y casos perimetrales para validar el comportamiento del sistema antes de la implementación.

  • Refinar las solicitudes con regularidad: las instrucciones de actualización a medida que evolucionan las directivas o surgen nuevos escenarios para mantener la relevancia y la precisión.

  • Evitar criterios imprecisos: asegúrese de que las indicaciones sean explícitas y bien definidas, evite términos como "razonables" sin contexto claro.

  • Supervise las decisiones: use herramientas como Prompt Builder Activity para realizar un seguimiento de las tasas de aprobación e identificar patrones o errores.

  • Entrenar a los usuarios: instruir al personal sobre la interpretación de las razones de la IA e invalidar los procedimientos para crear confianza y transparencia.

Recordar: la IA puede ejecutar instrucciones erróneas con confianza, por lo que es esencial una guía clara y correcta.

¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable de la experiencia de aprobaciones del agente?

Para usar las aprobaciones de IA de forma eficaz y segura, tenga en cuenta estos procedimientos recomendados operativos:

  • Establezca una temperatura baja para la coherencia: use la configuración de temperatura baja (cerca de 0) para asegurarse de que la inteligencia artificial toma decisiones deterministas y predecibles en lugar de diferentes respuestas a entradas idénticas. La configuración predeterminada de Copilot Studio ya está optimizada para la fiabilidad.

  • Elija el modelo adecuado: GPT-4.1 suele ser ideal para la mayoría de los escenarios de aprobación. Los modelos de razonamiento avanzado (como O3) pueden controlar mejor la lógica compleja, pero son más lentos. Los modelos proporcionados por Microsoft se integran previamente y se prueban, aunque puede traer sus propios modelos ajustados de Fundición de IA de Azure si tiene requisitos específicos o necesidades personalizadas.

  • Implementar la supervisión humana: configure las fases humanas o manuales a las que se puede enrutar para tomar decisiones críticas. Las fases humanas y manuales garantizan que los seres humanos estén siempre en control.

  • Prueba exhaustiva en el espacio aislado: realice pruebas exhaustivas con datos históricos y solicitudes de muestra antes de ponerlo en marcha. Probar deliberadamente los casos perimetrales: campos que faltan, reglas en conflicto, escenarios inusuales. Compruebe que el flujo de trabajo de un extremo a otro se desencadena correctamente.

  • Supervisar las decisiones: Todas las decisiones se registran en la sección Actividad del generador de avisos en Power Automate. Use esos datos para realizar un seguimiento de métricas como las tasas de aprobación y evaluar la exactitud de las decisiones de aprobación de IA.

  • Criterios de actualización periódica: trate las solicitudes de IA como documentos vivos. Actualice las instrucciones a medida que surgen cambios de directivas o nuevos escenarios. Incorporar los comentarios de los gerentes sobre si la IA es demasiado estricta o indulgente en áreas específicas.

  • Proporcionar transparencia y formación: entrene al personal pertinente sobre la interpretación de las razones de la inteligencia artificial y los procedimientos de invalidación. Informe a los usuarios finales de que la IA podría evaluar inicialmente las solicitudes. Las expectativas claras impiden la confusión y crean confianza.

Al ajustar la configuración de la IA para garantizar la coherencia, incorporar la supervisión humana y gestionar activamente el proceso, se asegura de que las aprobaciones de la IA sigan siendo eficaces y estén bien encaminadas. Piénselo como una colaboración: la IA se encarga del volumen y la velocidad, y los humanos se encargan de la orientación y las excepciones.

¿Qué protecciones existen en Copilot Studio para la IA responsable?

¿Qué tipo de moderación de contenido se implementa?

Los modelos GPT se entrenan con datos de Internet, lo cual es excelente para construir un modelo mundial general. Al mismo tiempo, puede heredar contenido tóxico, dañino y sesgado de las mismas fuentes. Los modelos están entrenados para comportarse de forma segura y no producir contenido dañino, pero a veces puede generar resultados tóxicos. Las aprobaciones de IA usan el servicio Seguridad del contenido de Azure AI para poner funcionalidades de moderación de contenido de última generación dentro de las solicitudes de IA. Esta moderación incluye servicios para analizar la salida generada con escáneres de texto de gravedad múltiple y seguridad contra ataques de inyección de mensajes. La salida también se escanea en busca de regurgitación de material protegido.

¿Qué modelos de lenguaje se admiten, dónde se hospedan y cómo puedo tener acceso a ellos?

Las aprobaciones de IA admiten modelos GPT 4.1 mini, GPT 4.o, GPT 4.1 y o3, que se hospedan en Azure OpenAI Service. Puede tener acceso a estos modelos a través de las indicaciones de Power Platform, en las aplicaciones, los flujos y los agentes.

Para más información, consulte Novedades de Azure OpenAI Service

¿Mis datos se usan para entrenar o mejorar los modelos de lenguaje grandes?

Las aprobaciones de IA se ejecutan en el Azure OpenAI Service hospedado por Microsoft. Los datos de clientes no se usan para entrenar o mejorar ninguno de los modelos básicos de Azure OpenAI Service. Microsoft no comparte datos de clientes con terceros a menos que usted haya otorgado permiso para hacerlo. Ni las solicitudes del cliente (entrada) con sus datos de apoyo ni las respuestas del modelo (salida) se usan para entrenar o mejorar los modelos básicos de Azure OpenAI Service.

¿Cómo se procesan las imágenes de las personas?

Las aprobaciones de IA no están diseñadas para usar la identificación de individuos en función de las características faciales ni de los datos biométricos. Al enviar imágenes que contienen personas en aprobaciones de IA, el sistema aplica automáticamente una característica de desenfoque facial antes de analizar las imágenes para proteger la privacidad individual. Este paso de difuminado ayuda a abordar los problemas de privacidad al evitar la identificación basada en los rasgos faciales. Con el desenfoque, no interviene el reconocimiento facial ni la coincidencia de plantillas faciales. En cambio, cualquier identificación de personas conocidas se basa en señales contextuales, como uniformes o escenarios únicos, no en sus rostros. Esta medida de privacidad no debería afectar a la calidad de los resultados que recibe. El difuminado de rostros podría ser ocasionalmente mencionado en las respuestas del sistema.

Obtén más información en Desenfoque facial.

¿Cuáles son algunos posibles daños al usar imágenes o documentos en avisos?

Las aprobaciones de IA mitigan la mayoría de los riesgos implicados al usar imágenes o documentos en avisos, pero algunos riesgos aún requieren atención adicional del creador del mensaje:

  • Las imágenes o documentos pueden contener texto o elementos visuales dañinos que podrían afectar sus procesos posteriores.

  • Las imágenes o documentos pueden incluir instrucciones especiales y posiblemente ocultas que podrían comprometer o anular la instrucción inicial.

  • Las imágenes o documentos pueden contener instrucciones que podrían dar lugar a la generación de contenido protegido por propiedad intelectual (PI).

  • Las indicaciones pueden producir comentarios sesgados en imágenes o documentos.

  • La extracción de información de imágenes o documentos de baja calidad puede dar lugar a la alucinación.

¿Qué tipos de problemas pueden surgir al usar aprobaciones de IA y cómo puedo controlarlos?

Al usar aprobaciones de IA, es posible que encuentre problemas como errores de análisis (cuando la inteligencia artificial no puede aplicar reglas con confianza), decisiones de aprobación incorrectas (falsos positivos o negativos), resultados incoherentes en solicitudes similares o retrasos en el procesamiento con casos complejos. Para controlar estos desafíos de forma eficaz, asegúrese de que el flujo de trabajo enruta las solicitudes a las fases humanas.

Implemente pruebas coherentes y rigurosas en todo el desarrollo e implementación para identificar los posibles puntos de error al principio. Use la configuración de temperatura baja para obtener resultados predecibles y refinar continuamente los mensajes en función de los errores observados. Las mejoras periódicas de supervisión e iteración ayudarán a mantener la fiabilidad y la precisión del sistema a lo largo del tiempo.