Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se proporciona información general sobre los recursos para compilar e implementar agentes de inteligencia artificial de confianza. Esto incluye la seguridad, la observabilidad y la gobernanza de un extremo a otro con controles y puntos de control en todas las fases del ciclo de vida del agente. Nuestros pasos de desarrollo esenciales recomendados se basan en el estándar de IA responsable de Microsoft, que establece los requisitos de directiva que siguen nuestros propios equipos de ingeniería. Gran parte del contenido del estándar sigue un patrón, pidiendo a los equipos que detecten, protejan y controlen posibles riesgos de contenido.
En Microsoft, nuestro enfoque está guiado por un marco de gobernanza basado en principios de inteligencia artificial, que establecen requisitos de producto y sirven como nuestra "estrella norte". Cuando identificamos un caso de uso empresarial para la inteligencia artificial generativa, primero detectamos y evalúamos los posibles riesgos del sistema de inteligencia artificial para identificar áreas de enfoque críticas.
Una vez que se identifican estos riesgos, se evalúa su prevalencia dentro del sistema de IA mediante la medición sistemática, lo que ayuda a clasificar las áreas que necesitan atención. A continuación, aplicamos la protección adecuada en el nivel de modelo y agente frente a esos riesgos.
Por último, examinamos las estrategias para administrar riesgos en producción, incluida la preparación operativa y la implementación, y la configuración de la supervisión para respaldar la gobernanza continua para garantizar el cumplimiento y exponer nuevos riesgos una vez que la aplicación esté activa.
En consonancia con las prácticas RAI de Microsoft, estas recomendaciones se organizan en tres fases:
- Descubra los riesgos de calidad, seguridad y seguridad del agente antes y después de la implementación.
- Proteger , tanto en los niveles de salida del modelo como en tiempo de ejecución del agente, frente a riesgos de seguridad, salidas no deseadas y acciones no seguras.
- Controlar los agentes mediante las herramientas de seguimiento y supervisión y las integraciones de cumplimiento.
Alertas y recomendaciones de seguridad
Puede ver las alertas y recomendaciones de seguridad de Defender for Cloud para mejorar la posición de seguridad en la sección Riesgos y alertas . Las alertas de seguridad son las notificaciones generadas por el plan de Defender for Foundry Tools cuando las amenazas se identifican en las cargas de trabajo de IA. Puede realizar acciones en Azure Portal o en el portal de Defender para solucionar estas alertas.
- Para más información sobre las alertas de seguridad, consulte Alertas para cargas de trabajo de IA (versión preliminar).
- Para más información sobre las recomendaciones de seguridad, consulte Revisión de las recomendaciones de seguridad.