Modelo de responsabilidad compartida de la inteligencia artificial (IA)
A medida que considere y evalúe la integración habilitada para IA, es fundamental comprender el modelo de responsabilidad compartida y qué tareas controla el proveedor de la aplicación o la plataforma de IA y qué tareas controla usted. Las responsabilidades de la carga de trabajo varían en función de si la integración de IA se basa en software como servicio (SaaS), plataforma como servicio (PaaS) o infraestructura como servicio (IaaS).
División de responsabilidad
Al igual que con los servicios en la nube, tiene varias opciones al implementar funcionalidades de inteligencia artificial para la organización. En función de la opción que elija, se hace responsable de diferentes partes de las operaciones y directivas necesarias para usar la inteligencia artificial de forma segura.
En el diagrama siguiente, se muestran las áreas de responsabilidad entre usted y Microsoft, según el tipo de implementación.
Introducción a la capa de IA
Una aplicación habilitada para IA consta de tres capas de funcionalidad que agrupan tareas, que realizarán usted o un proveedor de IA. Las responsabilidades de seguridad suelen residir con quien realice las tareas, pero un proveedor de IA podría optar por exponer la seguridad u otros controles como una opción de configuración a su disposición según corresponda. Estas tres capas incluyen:
Plataforma de inteligencia artificial
La capa de plataforma de IA proporciona las funcionalidades de inteligencia artificial a las aplicaciones. En la capa de plataforma, es necesario crear y proteger la infraestructura que ejecuta el modelo de IA, los datos de entrenamiento y las configuraciones específicas que cambian el comportamiento del modelo, como las ponderaciones y los sesgos. Esta capa proporciona acceso a la funcionalidad mediante las API, que pasan texto conocido como Metaprompt al modelo de IA para su procesamiento y, a continuación, devuelven el resultado generado, conocido como Prompt-Response.
Consideraciones de seguridad de la plataforma de IA: para proteger la plataforma de IA frente a entradas malintencionadas, se debe crear un sistema de seguridad para filtrar las instrucciones potencialmente perjudiciales enviadas al modelo de IA (entradas). Dado que los modelos de inteligencia artificial son generativos, también existe la posibilidad de que se genere algún contenido dañino y se devuelva al usuario (salidas). Cualquier sistema de seguridad debe proteger primero frente a entradas y salidas potencialmente perjudiciales de muchas clasificaciones, como mensajes de odio, evasiones y otras. Estas clasificaciones probablemente evolucionarán con el tiempo en función del conocimiento del modelo, la configuración regional y el sector.
Microsoft tiene sistemas de seguridad integrados para las ofertas de PaaS y SaaS:
- PaaS: Azure OpenAI Service
- SaaS: Microsoft Security Copilot
Aplicación de IA
La aplicación de IA accede a las funcionalidades de IA y proporciona el servicio o la interfaz que consume el usuario. Los componentes de esta capa pueden variar de relativamente sencillos a muy complejos, en función de la aplicación. Las aplicaciones de inteligencia artificial independientes más sencillas actúan como una interfaz para un conjunto de API que toman una solicitud de usuario basada en texto y pasan esos datos al modelo para obtener una respuesta. Las aplicaciones de IA más complejas incluyen la posibilidad de dotar a la solicitud del usuario de un contexto adicional, como una capa de persistencia, un índice semántico o complementos que permitan acceder a más orígenes de datos. Las aplicaciones avanzadas de inteligencia artificial también pueden interactuar con aplicaciones y sistemas existentes. Las aplicaciones y sistemas existentes pueden funcionar en texto, audio e imágenes para generar varios tipos de contenido.
Consideraciones de seguridad de las aplicaciones de IA: se debe crear un sistema de seguridad de aplicaciones para proteger la aplicación de IA frente a actividades malintencionadas. El sistema de seguridad proporciona una inspección profunda del contenido que se usa en el Metaprompt enviado al modelo de IA. El sistema de seguridad también inspecciona las interacciones con los complementos, conectores de datos y otras aplicaciones de inteligencia artificial (conocido como orquestación de IA). Una manera de incorporar esto en su propia aplicación de IA basada en IaaS o PaaS es usar el servicio Seguridad del contenido de Azure AI. Hay otras funcionalidades disponibles en función de sus necesidades.
Uso de la IA
En la capa de uso de la IA, se describe cómo se usan y consumen en última instancia las funcionalidades de IA. La IA generativa ofrece un nuevo tipo de interfaz de usuario o equipo que es fundamentalmente diferente de otras interfaces de equipo, como las API, el símbolo del sistema y las interfaces gráficas de usuario (GUI). La interfaz de IA generativa es interactiva y dinámica, lo que permite que las funcionalidades del equipo se ajusten al usuario y a su intención. La interfaz de IA generativa contrasta con las interfaces anteriores, que obligan principalmente a los usuarios a aprender el diseño y la funcionalidad del sistema y ajustarse a ello. Esta interactividad permite la entrada del usuario, en lugar de diseñadores de aplicaciones, tener un alto nivel de influencia de la salida del sistema, lo que hace que las barreras de seguridad sean fundamentales para proteger a las personas, los datos y los recursos empresariales.
Consideraciones de seguridad sobre el uso de la IA: la protección del uso de la IA es similar a cualquier sistema informático, ya que se basa en garantías de seguridad para controles de identidad y acceso, protecciones de dispositivos y supervisión, protección de datos y gobernanza, controles administrativos y otros controles.
Se requiere más énfasis en el comportamiento del usuario y la responsabilidad debido al aumento de la influencia que tienen los usuarios en la salida de los sistemas. Es fundamental actualizar las directivas de uso aceptables y educar a los usuarios sobre la diferencia entre las aplicaciones de TI estándar y las aplicaciones habilitadas para IA. Esto debe incluir consideraciones específicas de la inteligencia artificial relacionadas con la seguridad, la privacidad y la ética. Además, los usuarios deben educarse en ataques basados en inteligencia artificial que se pueden usar para engañarlos con texto falso convincente, voces, vídeos, etc.
Los tipos de ataque específicos de la IA se definen en:
- Clasificación de la gravedad de las vulnerabilidades del Centro de respuestas de seguridad de Microsoft (MSRC) para sistemas de inteligencia artificial
- Panorama de amenazas de adversarios de MITRE para sistemas de inteligencia artificial (ATLAS)
- Los 10 puntos principales de OWASP para aplicaciones de modelo de lenguaje grande (LLM)
- Los 10 puntos principales de seguridad de OWASP para aprendizaje automático (ML)
- Marco de administración de riesgos de IA del NIST
Ciclo de vida de la seguridad
Al igual que con la seguridad de otros tipos de funcionalidades, es fundamental planear un enfoque completo. Un enfoque completo incluye personas, procesos y tecnología en todo el ciclo de vida de la seguridad: identificar, proteger, detectar, responder, recuperar y gobernar. Cualquier brecha o debilidad en este ciclo de vida podría tener las siguientes consecuencias:
- No poder proteger los recursos importantes
- Experimentar ataques fácilmente evitables
- No poder controlar los ataques
- No poder restaurar rápidamente los servicios críticos para la empresa
- Aplicación incoherente de los controles
Para obtener más información sobre la naturaleza única de las pruebas de amenazas de IA, lea sobre cómo el equipo rojo de inteligencia artificial de Microsoft está creando el futuro de una inteligencia artificial más segura.
Configurar antes de personalizar
Microsoft recomienda que las organizaciones empiecen con enfoques basados en SaaS, como el modelo de Copilot, para su adopción inicial de la inteligencia artificial y para todas las cargas de trabajo de IA posteriores. Esto minimiza el nivel de responsabilidad y experiencia que tiene que proporcionar su organización para diseñar, operar y proteger estas funcionalidades muy complejas.
Si las funcionalidades "de serie" actuales no satisfacen las necesidades específicas de una carga de trabajo, puede adoptar un modelo PaaS mediante el uso de servicios de IA, como Azure OpenAI Service, para cumplir esos requisitos específicos.
La creación de modelos personalizados solo se debe adoptar por parte de organizaciones con experiencia profunda en la ciencia de datos y en las consideraciones éticas, de privacidad y de seguridad de la inteligencia artificial.
Para ayudar a llevar la inteligencia artificial al mundo, Microsoft está desarrollando soluciones de Copilot para cada una de las principales soluciones de productividad: desde Bing y Windows hasta GitHub y Office 365. Microsoft está desarrollando soluciones de pila completa para todos los tipos de escenarios de productividad. Se ofrecen como soluciones SaaS. Integradas en la interfaz de usuario del producto, están optimizadas para ayudar al usuario con tareas específicas para aumentar la productividad.
Microsoft garantiza que todas las soluciones de Copilot están diseñadas siguiendo nuestros principios sólidos para la gobernanza de la inteligencia artificial.
Pasos siguientes
Obtenga más información sobre los requisitos de desarrollo de los productos de Microsoft para la inteligencia artificial responsable en Estándar de Microsoft para la IA responsable.
Obtenga información sobre las Responsabilidades compartidas de la informática en la nube.