Capas de arquitectura de IA
Para comprender cómo pueden producirse ataques contra la inteligencia artificial, puede separar la arquitectura de IA en tres capas, como se muestra en la exposición:
- Capa de uso de IA
- Capa de aplicación de IA
- Capa de plataforma de IA
Capa de uso de IA
La capa de uso de IA describe cómo se usan y consumen en última instancia las funcionalidades de IA. La IA generativa ofrece un nuevo tipo de interfaz de usuario o del ordenador que es fundamentalmente diferente de otras interfaces del ordenador (interfaces de API, del símbolo del sistema y gráficas de usuario (GUI)). La interfaz de IA generativa es interactiva y dinámica, lo que permite que las funcionalidades del equipo se ajusten al usuario y a su intención. Esto contrasta con las interfaces anteriores que obligan principalmente a los usuarios a aprender el diseño y la funcionalidad del sistema para lograr sus objetivos. Esta interactividad permite que la entrada de usuario tenga un alto nivel de influencia de la salida del sistema (frente a los diseñadores de aplicaciones), lo que hace que las barreras de seguridad sean fundamentales para proteger a las personas, los datos y los recursos empresariales.
La protección de la inteligencia artificial en la capa de uso de IA es similar a la protección de cualquier sistema informático, ya que se basa en garantías de seguridad para controles de identidad y acceso, protecciones y supervisión de dispositivos, protección y gobierno de datos, controles administrativos y otros controles.
Se requiere énfasis adicional en el comportamiento y la responsabilidad del usuario debido al aumento de la influencia que tienen los usuarios en la salida de los sistemas. Es fundamental actualizar las directivas de uso aceptables y explicárselas a los usuarios. Esto debe incluir consideraciones específicas de la inteligencia artificial relacionadas con la seguridad, la privacidad y la ética. Además, los usuarios deben educarse en ataques basados en inteligencia artificial que se pueden usar para engañarlos con texto falso convincente, voces, vídeos, etc.
Capa de aplicación de IA
En la capa de aplicación de IA, la aplicación accede a las funcionalidades de IA y proporciona el servicio o la interfaz que el usuario usa. Los componentes de esta capa pueden variar de relativamente sencillos a muy complejos, en función de la aplicación. Las aplicaciones de inteligencia artificial independientes más sencillas actúan como una interfaz para un conjunto de API que toman un mensaje de usuario basado en texto y pasan esos datos al modelo para obtener una respuesta. Entre las aplicaciones de inteligencia artificial más complejas se incluyen la capacidad de poner en tierra la solicitud del usuario con contexto adicional, como una capa de persistencia, un índice semántico o a través de complementos para permitir el acceso a orígenes de datos adicionales. Las aplicaciones de IA avanzadas también pueden interactuar con aplicaciones y sistemas existentes; estas pueden funcionar en texto, audio e imágenes para generar distintos tipos de contenido.
Para proteger la aplicación de IA frente a actividades malintencionadas en esta capa, se debe crear un sistema de seguridad de aplicaciones para proporcionar una inspección profunda del contenido que se usa en la solicitud enviada al modelo de IA y las interacciones con los complementos, conectores de datos y otras aplicaciones de IA (conocidas como orquestación de IA).
Capa de plataforma de IA
La capa de plataforma de IA proporciona las funcionalidades de inteligencia artificial a las aplicaciones. En la capa de plataforma hay que crear y proteger la infraestructura que ejecuta el modelo de IA, los datos de entrenamiento y las configuraciones específicas que cambian el comportamiento del modelo, como pesos y sesgos. Esta capa proporciona acceso a la funcionalidad a través de las API, que pasarán texto conocido como Metaprompt al modelo de IA para su procesamiento y, a continuación, devuelven el resultado generado, conocido como Solicitud-Respuesta.
Para proteger la plataforma de IA frente a entradas malintencionadas, se debe crear un sistema de seguridad para filtrar las instrucciones potencialmente dañinas enviadas al modelo de IA (entradas). A medida que los modelos de IA son generativos, también hay un potencial de que se pueda generar y devolver contenido dañino al usuario (salidas). Cualquier sistema de seguridad debe proteger primero frente a entradas y salidas potencialmente perjudiciales de muchas clasificaciones, como mensajes de odio, evasiones y otras. Es probable que las clasificaciones evolucionen con el tiempo en función del conocimiento del modelo, la configuración regional y el sector.