Comprender las consideraciones para una IA responsable

Completado

En la unidad anterior se presentó la necesidad de tener consideraciones para un desarrollo ético y responsable del software habilitado para inteligencia artificial. En esta unidad, analizaremos algunos principios básicos para un uso responsable de la inteligencia artificial que se han adoptado en Microsoft.

Imparcialidad

An image of scales

Los sistemas de IA deberían tratar a todas las personas de manera equitativa. Por ejemplo, imagine que crea un modelo de Machine Learning para admitir una solicitud de aprobación de préstamo para un banco. El modelo debe hacer predicciones acerca de si el préstamo debe ser aprobado o no sin incorporar ningún sesgo basado en el género, origen étnico u otros factores que puedan resultar en una ventaja o desventaja injusta para grupos específicos de solicitantes.

La equidad de los sistemas de aprendizaje automático es un área muy activa de investigación en curso y existen algunas soluciones de software para evaluar, cuantificar y mitigar la parcialidad en los modelos de Machine Learning. Sin embargo, las herramientas por sí solas no son suficientes para garantizar la equidad. Tenga en cuenta la equidad desde el principio del proceso de desarrollo de aplicaciones, revisando cuidadosamente los datos de entrenamiento para asegurarse de que sean representativos de todas las personas a las que afecten potencialmente y evaluando el rendimiento predictivo de las subsecciones de la población de usuarios a lo largo del ciclo de vida de desarrollo.

Confiabilidad y seguridad

An image of a shield

Los sistemas de inteligencia artificial deben funcionar de manera confiable y segura. Por ejemplo, considere un sistema de software basado en IA para un vehículo autónomo; o bien, un modelo de Machine Learning que diagnostica los síntomas del paciente y recomienda recetas. La falta de fiabilidad en este tipo de sistema puede resultar en un riesgo sustancial para la vida humana.

Como ocurre con cualquier tipo de software, el desarrollo de aplicaciones de software basadas en inteligencia artificial debe someterse a rigurosos procesos de prueba y administración de implementaciones para garantizar que funcionen de la forma esperada antes de su lanzamiento. Además, los ingenieros de software deben tener en cuenta la naturaleza probabilística de los modelos de Machine Learning y aplicar los umbrales adecuados al evaluar las puntuaciones de confianza de las predicciones.

Privacidad y seguridad

An image of a padlock

Los sistemas de inteligencia artificial deben ser seguros y respetar la privacidad. Los modelos de Machine Learning en los que se basan los sistemas de inteligencia artificial dependen de grandes volúmenes de datos, que pueden contener datos personales que deben mantenerse privados. Incluso después de entrenar los modelos y de que el sistema pase a producción, usan nuevos datos para hacer predicciones o tomar medidas relacionadas con preocupaciones relativas a la privacidad o la seguridad, por lo que se deberán aplicar las salvaguardias necesarias para proteger los datos y el contenido de los clientes.

Inclusión

An image of a group of people

Los sistemas de inteligencia artificial deben empoderar a todos e involucrar a las personas. La inteligencia artificial debería aportar beneficios a todos los sectores de la sociedad, independientemente de su capacidad física, género, orientación sexual, origen étnico u otros factores.

Una manera de optimizar la inclusión es asegurarse de que el diseño, el desarrollo y las pruebas de la aplicación incluyen la entrada de un grupo de personas lo más diverso posible.

Transparencia

An image of an eye

Los sistemas de inteligencia artificial deben ser comprensibles. Los usuarios deben ser plenamente conscientes del propósito del sistema, su funcionamiento y las limitaciones que se pueden esperar.

Por ejemplo, cuando un sistema de inteligencia artificial se basa en un modelo de Machine Learning, por lo general debe hacer que los usuarios conozcan los factores que pueden afectar a la precisión de sus predicciones, como el número de casos usados para entrenar el modelo o las características específicas que tienen más influencia sobre sus predicciones. También debe compartir información sobre la puntuación de confianza de las predicciones.

Cuando una aplicación de inteligencia artificial se basa en datos personales, como un sistema de reconocimiento facial que toma imágenes de personas para reconocerlas, debe dejar claro al usuario cómo se usan y conservan sus datos, y quién tiene acceso a ellos.

Responsabilidad

An image of a handshake

Las personas deberían ser responsables de los sistemas de inteligencia artificial. Aunque muchos sistemas de inteligencia artificial parecen funcionar de forma autónoma, en última instancia, es responsabilidad de los desarrolladores que entrenaron y validaron los modelos que usan, y definieron la lógica que basa las decisiones en predicciones del modelo con el fin de garantizar que el sistema global cumpla los requisitos sobre responsabilidad. Para ayudar a cumplir este objetivo, los diseñadores y desarrolladores de soluciones basadas en IA deben trabajar dentro de un marco de gobernanza y principios de organización que garanticen que la solución cumpla con los estándares éticos y legales claramente definidos.

Nota:

Microsoft publicó importantes actualizaciones sobre el estándar de inteligencia artificial (IA) responsable en junio de 2022. Como parte de esta iniciativa, hemos actualizado el enfoque aplicado al reconocimiento facial, que incluye una nueva directiva de acceso limitado a determinadas características como salvaguardia para hacer un uso responsable. Puede solicitar el acceso limitado para habilitar esas características en su aplicación.

Para obtener más información sobre los principios de Microsoft para un uso responsable de la IA, visite el sitio de inteligencia artificial responsable de Microsoft.