Compartir a través de


Creación de una posición de seguridad sólida para la inteligencia artificial

La posición de seguridad de la IA es una parte importante de la estrategia global de seguridad. La inteligencia artificial pone prioridad en elementos específicos de una estrategia de ciberseguridad, como la protección de datos. Este artículo le ayuda a desarrollar su estrategia y prioridades para proteger la inteligencia artificial. Los artículos posteriores de esta colección le ayudarán a identificar los elementos específicos de la ciberseguridad para priorizar a medida que adopte compañeros de inteligencia artificial, herramientas y nuevas aplicaciones.

La posición de seguridad se define como la capacidad general de defensa de ciberseguridad de su organización, junto con el nivel de preparación y estado operativo para tratar las amenazas de ciberseguridad en curso. Esta posición debe ser cuantificable y medible, de forma similar a cualquier otra métrica importante que pertenezca al estado operativo o al bienestar de su organización.

Diagrama que muestra la posición de seguridad de la organización.

La creación de una posición de seguridad sólida para la inteligencia artificial implica trabajar dentro de su organización, especialmente los líderes de la organización, para desarrollar una estrategia y un conjunto de prioridades y objetivos. A continuación, identifique el trabajo técnico necesario para lograr los objetivos y dirigir a los distintos equipos para lograrlos. Los artículos de esta biblioteca proporcionan una metodología con instrucciones específicas de la inteligencia artificial:

  • Prepare su entorno con protecciones de seguridad básicas. Es probable que ya tenga muchas de estas protecciones en su lugar.
  • Descubra las aplicaciones de inteligencia artificial que se usan en su organización, incluidos los tipos de datos que usan las aplicaciones.
  • Proteja el uso de herramientas de inteligencia artificial en su organización. Esto implica funcionalidades de protección de datos específicas de la inteligencia artificial y asegurarse de que su organización ha implementado una protección contra amenazas sólida.
  • Gobernanza de la IA para el cumplimiento regulatorio.

Diagrama que muestra el proceso de implementación de la seguridad para la inteligencia artificial.

Use esta biblioteca junto con los marcos siguientes en Microsoft Learn:

Diagrama que muestra el marco de seguridad de la inteligencia artificial.

En la imagen:

  • Use esta biblioteca (biblioteca de seguridad para IA) para aprender a implementar capacidades para proteger las aplicaciones y los datos de IA en su entorno. Estas protecciones ayudan a construir las bases de su estrategia de confianza cero.
  • Usar el marco de adopción Confianza Cero para continuar avanzando hacia una seguridad extremo a extremo. Cada uno de los escenarios empresariales de Confianza cero también aumenta la seguridad de las aplicaciones y los datos de inteligencia artificial.
  • Utilice el Cloud Adoption Framework for AI para desarrollar su hoja de ruta integral para la adopción de la inteligencia artificial, incluida la inteligencia artificial generativa y no generativa. Esta biblioteca incluye estrategias para elegir tecnologías de inteligencia artificial, procesos para proteger y gobernar la inteligencia artificial y los recursos para el diseño e implementación de la inteligencia artificial.

Comprender las motivaciones de sus líderes empresariales

Una sólida posición de seguridad de inteligencia artificial permite la innovación: permite a las organizaciones crear e implementar inteligencia artificial con confianza y agilidad. El objetivo es permitir que la organización cree, implemente y escale sistemas de inteligencia artificial con confianza, a la vez que protege contra los riesgos que podrían perjudicar la confianza, el cumplimiento o la estabilidad operativa. Al insertar la seguridad en la base de las iniciativas de inteligencia artificial, las organizaciones pueden desbloquear el potencial total de la inteligencia artificial de forma responsable, lo que garantiza que sigue siendo un recurso estratégico en lugar de una fuente de daños no deseados.

Comience a desarrollar su estrategia y prioridades al obtener alineación con sus líderes empresariales. ¿Qué motiva a los líderes y por qué se preocupa por su posición de seguridad para la inteligencia artificial? En la tabla siguiente se proporcionan perspectivas de ejemplo, pero es importante que pueda reunirse con cada uno de estos líderes y equipos y conocer las motivaciones de cada uno de ellos.

Rol ¿Por qué es importante crear una posición de seguridad sólida para la inteligencia artificial?
Director Ejecutivo (CEO) Los sistemas de inteligencia artificial dan forma cada vez más a las decisiones estratégicas y a las interacciones de los clientes. Una vulneración o manipulación de la inteligencia artificial puede provocar malas decisiones, un examen normativo, un daño de reputación y una pérdida de confianza. La seguridad sólida de la inteligencia artificial es fundamental para que la organización proteja la reputación de la empresa, garantice el cumplimiento legal y garantice una transformación correcta de la inteligencia artificial.
Director de Marketing (CMO) Las herramientas de inteligencia artificial impulsan la información de los clientes, el destino y la personalización. Si se pone en peligro, estas herramientas pueden provocar fugas de datos, salidas sesgadas o daños en la marca debido a contenido o destino inadecuados. La protección de la inteligencia artificial garantiza la confianza en la participación de los clientes, la conservación de la integridad de la marca, la prevención de desastres de PR y la demostración del compromiso de la empresa con la protección de la privacidad del cliente.
Director de información (CIO) Un entorno de inteligencia artificial seguro es esencial para garantizar la confiabilidad del sistema, evitar el acceso no autorizado y mantener la resistencia operativa. Esto permite a los CIOs integrar con confianza las tecnologías de inteligencia artificial que mejoran la empresa sin exponer la empresa a riesgos indebidos.
Director de seguridad de la información (CISO) La inteligencia artificial presenta nuevas superficies de ataque y nuevos riesgos, al mismo tiempo que amplifica los riesgos existentes. Las nuevas superficies de ataque incluyen avisos, respuestas, modelos, datos RAG, protocolo de contexto del modelo (MCP), datos de entrenamiento y intoxicación de datos, ataques de jailbreak, seguridad de datos, etc. El CISO debe dirigir los esfuerzos en el modelado de amenazas y proteger las canalizaciones de inteligencia artificial para mantener la posición de seguridad empresarial. La seguridad sólida de la inteligencia artificial es una extensión de la estrategia general de ciberdefensa para proteger los recursos de la organización, cumplir con los marcos de seguridad y mantener la confianza de los clientes y las partes interesadas en la antigüedad de los sistemas inteligentes.
Director de Tecnología (CTO) Una posición de seguridad de inteligencia artificial sólida es fundamental para los CTO para proteger los recursos tecnológicos de la organización y garantizar que los sistemas de inteligencia artificial funcionen de forma confiable según lo previsto. Al insertar la seguridad en el ciclo de vida de desarrollo de inteligencia artificial, el director de tecnología ayuda a evitar infracciones de algoritmos confidenciales y a mantener una alta calidad y confianza en los productos controlados por inteligencia artificial. Esto permite que la innovación continúe sin riesgos indebidos.
Director de operaciones (COO) La inteligencia artificial automatiza los procesos críticos en la cadena de suministro, la logística y las operaciones. Los ataques a sistemas de inteligencia artificial pueden interrumpir los servicios, aumentar el riesgo operativo y provocar retrasos costosos. Una sólida posición de seguridad de inteligencia artificial garantiza la continuidad empresarial y la eficacia.
Director financiero (CFO) Los directores financieros ven una sólida posición de seguridad de inteligencia artificial como esencial para proteger la organización. Ayuda a evitar pérdidas financieras imprevistas y garantiza el cumplimiento de las leyes y las obligaciones de notificación.

Abordar el panorama de amenazas en constante evolución de la inteligencia artificial

GenAI presenta nuevas superficies de ataque, cambiando eficazmente el panorama de riesgos. Además de administrar vectores de amenazas tradicionales, los líderes de seguridad y riesgos también deben abordar riesgos amplificados, como la pérdida de datos y el uso compartido de datos, y nuevos riesgos, como inyecciones de mensajes, información incorrecta, vulnerabilidades del modelo e información incorrecta. Abordar el panorama de amenazas en constante evolución es fundamental para habilitar la inteligencia artificial confiable.

Diagrama que muestra la introducción de nuevos riesgos en GenAI.

En la ilustración:

  • Las superficies expuestas a ataques genAI presentan riesgos nuevos y amplificados.
  • Los vectores de amenazas que permanecen sin cambios incluyen las aplicaciones, las identidades, los puntos de conexión, la red, los datos y los recursos en la nube.
  • GenAI presenta nuevas posiciones de ataque, como comandos, respuestas, orquestación IA, datos de entrenamiento, datos RAG (Retrieval-Augmented Generation, referido a los datos que resultan de las interacciones entre sus datos u otros datos externos con los modelos de lenguaje), modelos IA y plugins IA.
  • GenAI presenta nuevos riesgos amplificados, como la pérdida de datos, el jailbreak (poner en peligro los dispositivos que están protegidos de otro modo), la inyección indirecta de mensajes y la vulnerabilidad del modelo.

Actualmente, los incidentes de seguridad más comunes en la inteligencia artificial incluyen:

  • Pérdida de datos y uso compartido excesivo: los usuarios pueden exponer datos confidenciales a aplicaciones de IA en la sombra (aplicaciones no aprobadas por el equipo de TI). Los usuarios también pueden acceder a datos confidenciales mediante aplicaciones de inteligencia artificial.
  • Vulnerabilidades y amenazas emergentes: los actores incorrectos podrían aprovechar las vulnerabilidades de las aplicaciones de inteligencia artificial para acceder a recursos valiosos.
  • Incumplimiento: las regulaciones, incluidas las normativas emergentes de inteligencia artificial, pueden aumentar la incertidumbre. La adopción de inteligencia artificial no conforme puede aumentar la responsabilidad.

En los dos escenarios de ejemplo siguientes se resalta la necesidad de crear una posición de seguridad sólida para la inteligencia artificial.

¿Cómo se produce el uso compartido excesivo y la pérdida de datos?

En este ejemplo, un empleado de Contoso, Adele, busca y usa datos confidenciales con varias aplicaciones de inteligencia artificial.

Paso Descripción Riesgos no mitigados
1 Adele sobreescucha a un miembro del equipo que hace referencia al Proyecto Obsidian. Usa Microsoft 365 Copilot para encontrar más información sobre él. Copilot le proporciona un resumen y un vínculo a los documentos. Copilot puede procesar datos confidenciales sin limitaciones. Los datos confidenciales se sobreexponen a los empleados, incluidos aquellos que no deben tener acceso.
2 Adele continúa usando Copilot para encontrar y recopilar más información sobre Project Obsidian. No hay ningún control para detectar anomalías en las aplicaciones de IA.
3 Por curiosidad, Adele quiere ver lo que ChatGPT resumiría, por lo que pega el contenido del archivo en ChatGTP. No hay ninguna prevención de pérdida de datos (DLP) para evitar la pérdida de datos en las aplicaciones de inteligencia artificial del consumidor.
4 Los detalles del proyecto se mostraron prematuramente, lo que da lugar a infracciones de datos. Por lo tanto, Contoso prohibió todas las aplicaciones de inteligencia artificial en el lugar de trabajo. La prohibición directa de la inteligencia artificial para el consumidor puede provocar un aumento del uso clandestino.

Contoso podría haber mitigado estos riesgos mediante el trabajo de preparación, detección y protección del uso de aplicaciones de IA.

Fase Descripción
Preparación Utiliza Administración avanzada de Entra y SharePoint para optimizar el acceso de los empleados a los recursos.
Use Purview Information Protection para clasificar y etiquetar datos confidenciales.
Descubra Utilice DSPM de Purview para IA para descubrir riesgos de datos.
Usar un informe informe de evaluación de compartición excesiva de datos para evaluar los riesgos de dicha compartición excesiva.
Protección Aplique Purview DLP para Microsoft 365 Copilot para evitar que Copilot resuma los datos confidenciales.
Utiliza Administración de riesgos internos de Purview para detectar e investigar actividades anómalas. Use La protección adaptable para restringir dinámicamente el acceso a los usuarios de alto riesgo.
Use Defender for Cloud Apps para bloquear aplicaciones de alto riesgo.
Usa Entra Conditional Access para exigir que Adele acepte los Términos de Uso antes de conceder acceso a ChatGPT.
Usar DLP del punto de conexión Purview para bloquear el pegado de datos confidenciales en aplicaciones de IA del consumidor.

¿Cómo puede la inteligencia artificial introducir riesgos para el cumplimiento?

En el siguiente ejemplo, Jane es asignada para dirigir la gobernanza de IA para Contoso.

Paso Descripción Riesgos no mitigados
1 Jane tiene dificultades para interpretar los requisitos normativos en controles accionables para que los equipos de TI implementen. Falta de expertos que están bien versados tanto en los requisitos normativos como en la tecnología.
2 Jane comienza a prepararse para las evaluaciones de riesgos, pero no es consciente de los sistemas de inteligencia artificial que se compilan y usan en Contoso. Tampoco tiene visibilidad sobre el uso y los posibles riesgos de cumplimiento. No hay visibilidad de los sistemas de inteligencia artificial implementados en el entorno. No hay gobernanza del uso de inteligencia artificial.
3 Después de varias entrevistas internas, Jane se da cuenta de que los desarrolladores están creando alrededor de 14 aplicaciones de inteligencia artificial simultáneamente, con varios estándares implementados de seguridad, protección y privacidad. No hay visibilidad de los controles integrados en los sistemas de inteligencia artificial por parte de los desarrolladores.
4 Algunas aplicaciones de inteligencia artificial usan datos personales sin límites de protección estándar para evaluar los riesgos. No se ha implementado ninguna evaluación de riesgos.
5 Los clientes se quejan de que la IA de Contoso crea contenido dañino e infundado. Falta de controles para las salidas de IA.

Las regulaciones de inteligencia artificial aportan incertidumbre y riesgo abrumador de responsabilidad a los líderes responsables de la gobernanza de la inteligencia artificial. Sin cambios, Contoso corre el riesgo de infringir los requisitos normativos de inteligencia artificial y podría enfrentar penalizaciones y daños en la reputación.

Contoso podría haber mitigado estos riesgos mediante el trabajo de preparación, detección y protección del uso de aplicaciones de IA.

Fase Descripción
Preparación Use el Administrador de cumplimiento de Purview para obtener instrucciones sobre la implementación de controles que pueden ayudar a cumplir los requisitos de cumplimiento.
Descubra Use Defender for Cloud para detectar los recursos de inteligencia artificial implementados en entornos en la nube. Use Defender for Cloud Apps para detectar aplicaciones de IA de SaaS en uso.
Gobernanza Controlar el uso de la IA con las auditorías de Microsoft Purview, la administración del ciclo de vida de los datos, el cumplimiento de comunicaciones y eDiscovery.
Use los informes de IA en Azure AI Foundry para que los desarrolladores documente los detalles del proyecto de IA.
Use Las evaluaciones de privacidad de Priva para evaluar proactivamente los riesgos de privacidad de cada proyecto de inteligencia artificial.
Use Seguridad del contenido de Azure AI para mitigar los riesgos asociados a contenidos dañinos o sin fundamento.

Con el uso proactivo de las funcionalidades de gobernanza, las organizaciones pueden evaluar y abordar el riesgo al adoptar la inteligencia artificial.

Cinco pasos para implementar una seguridad eficaz para la inteligencia artificial

A medida que aumenta el conocimiento de los riesgos asociados a la implementación rápida de GenAI, muchas organizaciones responden proactivamente dedicando recursos sustanciales para mejorar sus medidas de seguridad. Los líderes de seguridad y riesgos pueden tomar varias medidas prácticas para crear un camino hacia la innovación segura y confiable en la inteligencia artificial.

Estas prácticas recomendadas se centran en fomentar un entorno colaborativo e implementar medidas de seguridad eficaces que apoyarán los avances de GenAI al tiempo que protegen los intereses de la organización.

Paso 1: Creación de un equipo de seguridad para la inteligencia artificial

La mayoría de las empresas reconocen la necesidad de formar equipos dedicados y multiplataforma para administrar los desafíos de seguridad únicos que plantea la inteligencia artificial. Los equipos de seguridad dedicados garantizan que los sistemas de inteligencia artificial se prueban rigurosamente, las vulnerabilidades se identifican y mitigan rápidamente, y los protocolos de seguridad se actualizan continuamente para seguir el ritmo de las amenazas en constante evolución.

Ocho por ciento de los encuestados actualmente tienen (45%) o planean tener (35%) un equipo dedicado para abordar la seguridad de la inteligencia artificial. Más de 6 en 10 dijo que sus equipos informarán a un responsable de la toma de decisiones de seguridad, lo que garantiza no solo la vigilancia, sino también la visión estratégica y el liderazgo para abordar los riesgos relacionados con la inteligencia artificial.

En particular, el tamaño medio del equipo, o el tamaño previsto del equipo, de estos equipos de seguridad dedicados era de 24 empleados, lo que subraya los recursos sustanciales que las empresas están comprometidos a proteger sus iniciativas de inteligencia artificial. Cuando se factorizó el tamaño de la empresa, los tamaños del equipo variaron.

Estos son algunos procedimientos recomendados que las organizaciones pueden usar para crear correctamente un equipo de seguridad funcional eficaz para la inteligencia artificial.

Formar un comité de inteligencia artificial para fomentar la colaboración entre departamentos

La seguridad de la inteligencia artificial es un esfuerzo colectivo que va más allá del departamento de TI. Fomentar la colaboración entre equipos como seguridad, TI, legal, cumplimiento y administración de riesgos para crear estrategias de seguridad completas. Tener distintas perspectivas y conocimientos mejorará la eficacia de los protocolos de seguridad.

Contratar diferentes conjuntos de aptitudes

La formación de un equipo de seguridad correcto para la inteligencia artificial requiere un equilibrio de aptitudes. Busque miembros del equipo con experiencia en ciencia de datos, ciberseguridad, ingeniería de software y aprendizaje automático. Esta diversidad garantiza que se tratan diversos aspectos de la seguridad, desde el desarrollo técnico hasta la prevención de amenazas.

Establecimiento de roles y responsabilidades claros

Para lograr una productividad eficaz, defina claramente el rol de cada miembro del equipo. Asegúrese de que todos comprendan sus responsabilidades específicas, lo que promueve la responsabilidad y evita la superposición en los esfuerzos.

Invertir en formación y desarrollo continuos

La rápida evolución de las tecnologías de inteligencia artificial exige educación continua para los equipos de seguridad. Proporcionar acceso a programas de formación y talleres que se centran en prácticas, amenazas emergentes y consideraciones éticas relacionadas con la seguridad de la inteligencia artificial. Esta inversión no solo empodera a los miembros del equipo, sino que también garantiza que la organización vaya por delante frente a posibles vulnerabilidades.

Paso 2: Optimización de recursos para proteger GenAI

La introducción de aplicaciones de inteligencia artificial dentro de las organizaciones no solo está revolucionando las operaciones, sino que también necesita cambios significativos en la asignación de recursos y presupuestos, especialmente en la seguridad de TI.

Una mayoría significativa de los líderes de seguridad y riesgos (78%) creen que su presupuesto de seguridad de TI aumentará para dar cabida a los desafíos y oportunidades únicos que plantea la inteligencia artificial. Este ajuste es fundamental por varias razones. Los sistemas de inteligencia artificial requieren una infraestructura de seguridad sólida para funcionar de forma segura. Esto podría implicar la actualización de los sistemas de seguridad existentes, la implementación de controles de acceso más estrictos y la mejora de la seguridad y la gobernanza de los datos. Es posible que también se necesiten otros recursos para cumplir los nuevos requisitos normativos de inteligencia artificial emergentes.

Anteriormente en este artículo, Microsoft recomienda realizar el trabajo para comprender las motivaciones de los líderes empresariales y diferentes unidades de negocio de toda la organización. La identificación de los principales problemas y los objetivos empresariales compartidos es un paso importante para negociar los recursos para lograr los objetivos.

La asignación de fondos para evaluaciones de cumplimiento, consultas legales y auditorías es esencial para alinear la estrategia de inteligencia artificial de una organización con un marco del sector y permitir un uso y sistemas de inteligencia artificial más seguros, seguros y compatibles. La priorización de los fondos para el desarrollo continuo de aptitudes y formación de empleados, que podría incluir formación especializada en herramientas de seguridad para la inteligencia artificial, estrategias de administración de riesgos y consideraciones éticas en el uso de la inteligencia artificial también es importante tener en cuenta al asignar presupuesto y recursos.

Paso 3: Adoptar un enfoque de confianza cero

Al prepararse para adoptar la inteligencia artificial, una estrategia de confianza cero proporciona a los líderes de seguridad y riesgos un conjunto de principios que ayudan a abordar algunas de sus principales preocupaciones, incluidos el compartir en exceso de datos, la exposición excesiva y la TI en la sombra. Un enfoque de confianza cero cambia de un enfoque centrado en la red a un recurso y centrado en los datos y trata cada solicitud de acceso como una amenaza potencial, independientemente de su origen.

Confianza cero valida constantemente las identidades de todos los usuarios y dispositivos, lo que garantiza que solo aquellos con permisos claros puedan llegar a información confidencial. Al ajustar dinámicamente las medidas de seguridad basadas en evaluaciones en tiempo real, Confianza cero minimiza el riesgo de pérdida de datos y protege a una organización de amenazas internas y externas. La comprobación continua, el acceso con privilegios mínimos y la administración dinámica de riesgos son los pilares de este enfoque, lo que proporciona un marco de seguridad sólido y adaptable que admite el éxito de la seguridad de un extremo a otro de una organización.

Al adoptar confianza cero, las organizaciones pueden proteger sus implementaciones de inteligencia artificial y saber que su seguridad se valida y protege continuamente. Confianza cero permite a las organizaciones adoptar la inteligencia artificial con confianza, lo que garantiza que las eficaces funcionalidades de la inteligencia artificial se aprovechen de forma segura y eficaz.

Todas las instrucciones de seguridad para la inteligencia artificial proporcionadas por Microsoft están ancladas a los principios de confianza cero. Siguiendo las instrucciones de seguridad recomendadas para GenAI, va a crear una base de confianza cero sólida.

Paso 4: Invertir en responsabilidad compartida con asociados de confianza

Un recurso que a menudo se usa para ayudar a informar sobre la estrategia y las prioridades es el modelo de responsabilidad compartida. La responsabilidad de proteger el uso de inteligencia artificial en su organización se basa en el tipo de aplicaciones usadas. Los socios en los que invierte comparten la responsabilidad con usted.

Un modelo de responsabilidad compartida ayuda a los equipos de seguridad a guiar a su organización para elegir:

  • Aplicaciones de GenAI que disminuyen la carga de responsabilidad de sus organizaciones.
  • Asociados que han ganado su confianza.

Diagrama que muestra el modelo de responsabilidades compartidas de IA.

En este diagrama se resume el equilibrio de responsabilidades para usted y Microsoft. Muchas organizaciones usan el modelo de responsabilidad compartida para priorizar el uso de aplicaciones SaaS en asociación con proveedores de confianza y reducir el número de aplicaciones personalizadas.

Para más información, consulte Modelo de responsabilidad compartida de IA: Microsoft Azure.

Además de invertir con asociados que han ganado su confianza, muchos profesionales de seguridad recomiendan consolidar herramientas de seguridad y proveedores. Microsoft ofrece una solución de seguridad completa para la inteligencia artificial con herramientas que funcionan conjuntamente, lo que reduce considerablemente el volumen de trabajo de integración para los equipos de seguridad.

Paso 5: Adopción de una solución de seguridad completa para la inteligencia artificial

La inteligencia artificial presenta riesgos específicos que podrían no abordar completamente las medidas de seguridad tradicionales. La seguridad de la inteligencia artificial está diseñada para mitigar estos riesgos.

Una gran mayoría de las empresas planea adquirir herramientas y plataformas especializadas para proteger tanto el uso como el desarrollo de aplicaciones de inteligencia artificial. Cuando se le pregunta cómo planean proteger y proteger el uso y el desarrollo de aplicaciones de inteligencia artificial en sus organizaciones, la mayoría de los encuestados (72%) dijeron que planean adquirir una nueva solución de seguridad dedicada para proteger el uso y el desarrollo de la inteligencia artificial, mientras que 64% declaró que planean usar soluciones de seguridad existentes para proteger la inteligencia artificial.

Los líderes de TI y seguridad creen que los principales colaboradores del presupuesto para las nuevas soluciones para la protección y gobernanza de la inteligencia artificial serán departamentos de TI (63%) y departamentos de seguridad de la información y ciberseguridad (57%). Estos hallazgos muestran que, además de seguir usando soluciones de seguridad existentes, las organizaciones ven la necesidad de buscar nuevas soluciones que puedan ayudar a abordar los riesgos simplificados y emergentes de la inteligencia artificial.

Además de la plataforma de seguridad de un extremo a otro de Microsoft, Microsoft proporciona herramientas de seguridad completas para proteger la inteligencia artificial, desde la detección de herramientas de inteligencia artificial y los datos hasta las protecciones diseñadas específicamente para mitigar las amenazas de inteligencia artificial. Estas herramientas incluyen paneles sofisticados y recursos de cumplimiento, lo que le ayuda a mantenerse al tanto de los riesgos como de las obligaciones normativas.

Las funcionalidades de Microsoft proporcionan protección completa y encapsulada para las aplicaciones y los datos de inteligencia artificial.

La imagen siguiente es una vista resumida de todas las funcionalidades que Microsoft proporciona para proteger la adopción de la inteligencia artificial. Estas funcionalidades también se enumeran en la tabla siguiente.

Diagrama de productos de Microsoft que ayudan con la seguridad de la inteligencia artificial.

Principales preocupaciones de los clientes Capacidades
Evitar la pérdida de datos y el uso compartido excesivo de datos - Controles de acceso y puntos de conexión: Microsoft Entra e Intune
- Administración de la posición de seguridad de datos para la inteligencia artificial: Microsoft Purview
- Clasificación, etiquetado y protección de datos: Microsoft Purview
- Prevención de pérdida de datos: Microsoft Purview
- Detección y respuesta de actividades de anomalías y riesgos: Microsoft Purview
- Seguridad de aplicaciones SaaS: Microsoft Defender
Protección de la inteligencia artificial frente a vulnerabilidades y amenazas emergentes - Seguridad y gobernanza de datos: Microsoft Purview
- Evaluación de controles de calidad, seguridad y seguridad: Azure AI Foundry
- Administración de la posición de seguridad para los recursos de inteligencia artificial (aplicaciones, modelos, orquestadores, SDK) — Microsoft Defender
- Directiva de gobernanza de modelos: Azure Portal
- Escudo de avisos de seguridad de contenido: Azure AI
- Protección contra amenazas para cargas de trabajo de IA: Microsoft Defender
Gobernanza de la inteligencia artificial para cumplir los requisitos normativos - Evaluaciones de cumplimiento contra las normativas y estándares de inteligencia artificial: Microsoft Purview
- Detección y catálogo de IA: Microsoft Defender
- Auditorías de solicitudes & y respuestas, administración del ciclo de vida, eDiscovery, cumplimiento de las comunicaciones: Microsoft Purview
- Informes de IA para que los desarrolladores registren los detalles y controles del proyecto: Azure AI Foundry
- Evaluación del impacto en la privacidad: Microsoft Priva
- Mitigación de contenido dañino, información incorrecta y materiales protegidos: seguridad del contenido de Azure AI

Pasos siguientes para proteger la inteligencia artificial

Esta biblioteca le guía por el proceso de implementación de la seguridad para la inteligencia artificial en un enfoque preconfigurado.

Diagrama que muestra el proceso de implementación de la seguridad para la inteligencia artificial.

Siga las instrucciones de esta serie de artículos para obtener más información sobre cómo proteger la inteligencia artificial e identificar e implementar funcionalidades para lograr los objetivos de su organización.

Para obtener más información sobre cómo optimizar la posición general de seguridad y Confianza cero, consulte Modernización rápida de su posición de seguridad.

Para empezar a trabajar con las protecciones de seguridad recomendadas para los complementos IA, véase Usar la estrategia de seguridad Confianza Cero para estar preparado para los complementos IA, incluido Microsoft Copilot.