Compartir a través de


Información general: protección contra amenazas de la IA

La protección contra amenazas para cargas de trabajo de IA en Microsoft Defender for Cloud identifica continuamente las amenazas a las aplicaciones de inteligencia artificial generativa en tiempo real y ayuda en el proceso de respuesta, para los problemas de seguridad que pueden existir en las aplicaciones de inteligencia artificial generativa.

Importante

La protección contra amenazas para cargas de trabajo de IA está actualmente en versión preliminar. Consulte Términos de uso complementarios para las versiones preliminares de Microsoft Azure para conocer los términos legales que se aplican a las características de Azure que se encuentran en la versión beta, en versión preliminar o que todavía no se han publicado para que estén disponibles con carácter general.

La protección contra amenazas de inteligencia artificial de Defender for Cloud se integra con Escudos de avisos de Seguridad del contenido de Azure AI y las señales de inteligencia sobre amenazas de Microsoft para ofrecer alertas de seguridad contextuales y accionables asociadas a una serie de amenazas, como pérdidas de datos confidenciales, envenenamiento de datos, jailbreak y robo de credenciales.

Diagrama que muestra cómo funciona la habilitación, la detección y la respuesta para la protección contra amenazas.

Integración de Defender XDR

La protección contra amenazas para cargas de trabajo de IA se integra con Defender XDR, lo que permite a los equipos de seguridad centralizar las alertas en las cargas de trabajo de inteligencia artificial en el portal de Defender XDR.

Los equipos de seguridad pueden correlacionar las alertas e incidentes de las cargas de trabajo de inteligencia artificial dentro del portal de Defender XDR y obtener una comprensión del alcance completo de un ataque, incluidas las actividades malintencionadas asociadas a sus aplicaciones de IA generativa desde el panel de XDR.

Suscribirse a la versión preliminar pública limitada

Para usar la protección contra amenazas para cargas de trabajo de IA, debe inscribirse en el programa de versión preliminar pública limitada rellenando el formulario de registro.