Descripción de la inteligencia artificial responsable

Completado

En Microsoft, el desarrollo de software de inteligencia artificial se guía por un conjunto de seis principios diseñados para garantizar que las aplicaciones de inteligencia artificial ofrezcan soluciones sorprendentes a problemas difíciles sin consecuencias negativas no deseadas.

Imparcialidad

Los sistemas de IA deberían tratar a todas las personas de manera equitativa. Por ejemplo, imagine que crea un modelo de Machine Learning para admitir una solicitud de aprobación de préstamo para un banco. El modelo debe predecir si el préstamo se debe aprobar o denegar sin sesgo. Este sesgo podría estar basado en el sexo, la etnia u otros factores que den lugar a una ventaja o desventaja injusta a determinados grupos de solicitantes.

Azure Machine Learning incluye la capacidad de interpretar modelos y cuantificar en qué medida cada característica de los datos influye en la predicción del modelo. Esta capacidad ayuda a los científicos y desarrolladores de datos a identificar y mitigar sesgos en el modelo.

Otro ejemplo es la implementación de Microsoft de Inteligencia artificial responsable con el servicio Face, que retira las funcionalidades de reconocimiento facial que se pueden usar para intentar deducir los estados emocionales y los atributos de identidad. Estas funcionalidades, si se usan incorrectamente, pueden someter a personas a estereotipos, discriminación o denegación de servicio injusta.

Para obtener más información sobre las consideraciones de imparcialidad, vea el vídeo siguiente.

Confiabilidad y seguridad

Los sistemas de inteligencia artificial deben funcionar de manera confiable y segura. Por ejemplo, considere un sistema de software basado en IA para un vehículo autónomo; o bien, un modelo de Machine Learning que diagnostica los síntomas del paciente y recomienda recetas. La falta de confiabilidad en este tipo de sistemas puede resultar en un riesgo sustancial para la vida humana.

El desarrollo de aplicaciones de software basadas en inteligencia artificial debe someterse a rigurosos procesos de prueba y administración de implementaciones para garantizar que funcionen de la forma esperada antes de su lanzamiento.

Para obtener más información sobre consideraciones de fiabilidad y seguridad, vea el siguiente vídeo.

Privacidad y seguridad

Los sistemas de inteligencia artificial deben ser seguros y respetar la privacidad. Los modelos de Machine Learning en los que se basan los sistemas de inteligencia artificial dependen de grandes volúmenes de datos, que pueden contener datos personales que deben mantenerse privados. Incluso después de entrenar los modelos y estar el sistema en producción, es necesario tener en cuenta la privacidad y la seguridad. A medida que el sistema usa nuevos datos para realizar predicciones o tomar medidas, tanto los datos como las decisiones tomadas a partir de los datos pueden estar sujetos a problemas de privacidad o seguridad.

Para obtener más información sobre las consideraciones de privacidad y seguridad, vea el vídeo siguiente.

Inclusión

Los sistemas de inteligencia artificial deben empoderar a todos e involucrar a las personas. La inteligencia artificial debería aportar beneficios a todos los sectores de la sociedad, independientemente de su capacidad física, género, orientación sexual, origen étnico u otros factores.

Para obtener más información sobre las consideraciones de inclusividad, vea el vídeo siguiente.

Transparencia

Los sistemas de inteligencia artificial deben ser comprensibles. Los usuarios deben ser plenamente conscientes del propósito del sistema, su funcionamiento y las limitaciones que se pueden esperar.

Para obtener más información sobre las consideraciones de transparencia, vea el vídeo siguiente.

Responsabilidad

Las personas deberían ser responsables de los sistemas de inteligencia artificial. Los diseñadores y desarrolladores de soluciones basadas en IA deben trabajar dentro de un marco de principios organizacionales y de gobernanza que garanticen que la solución cumpla con los estándares éticos y legales que están claramente definidos.

Para obtener más información sobre las consideraciones de responsabilidad, vea el vídeo siguiente.

Los principios de la inteligencia artificial responsable pueden ayudarle a entender algunos de los desafíos a los que se enfrentan los desarrolladores a medida que intentan crear soluciones éticas de inteligencia artificial.

Recursos adicionales

Para obtener más recursos que le ayuden a poner en práctica los principios de IA, vea https://www.microsoft.com/ai/responsible-ai-resources.

Para ver estas directivas en acción, puede leer el marco de Microsoft para crear sistemas de inteligencia artificial de forma responsable.