Comprendre ce qu’est l’IA responsable

Effectué

Chez Microsoft, le développement de logiciels d’IA est guidé par un ensemble de six principes conçus pour garantir que les applications d’IA offrent des solutions remarquables à des problèmes complexes sans aucun effet indésirable non intentionnel.

Équité

Les systèmes d’IA doivent être équitables. Par exemple, supposons que vous deviez créer un modèle Machine Learning pour prendre en charge une demande d’approbation de prêt pour une banque. Le modèle doit prédire si le prêt doit être approuvé ou refusé sans biais. Ce biais peut être basée sur le genre, l’ethnicité ou d’autres facteurs susceptibles de donner un avantage injuste ou un désavantage pour des groupes spécifiques de demandeurs.

Azure Machine Learning inclut la capacité d’interpréter des modèles et de quantifier dans quelle mesure chaque caractéristique des données influence la prédiction du modèle. Cette fonctionnalité aide les scientifiques des données et les développeurs à identifier et à atténuer les biais d’un modèle.

Un autre exemple est l’implémentation de Microsoft de l’IA responsable dans le service Visage, qui retire les fonctionnalités de reconnaissance faciale pouvant être utilisées pour essayer de déduire des états émotionnels et des attributs identitaires. Si ces fonctionnalités sont mal utilisées, les gens peuvent faire l’objet de stéréotypes, de discriminations ou de refus de services injustes.

Pour plus d’informations sur l’équité, regardez la vidéo suivante.

Fiabilité et sécurité

Les systèmes d’IA doivent fonctionner de manière fiable et sécurisée. Prenons par exemple un système logiciel basé sur l’IA conçu pour un véhicule autonome, ou un modèle Machine Learning qui diagnostique les symptômes des patients et recommande des médicaments. Le manque de fiabilité de ces types de systèmes peut entraîner un risque important pour la vie humaine.

Le développement d’applications logicielles basées sur l’IA doit être soumis à des tests rigoureux et à des processus de gestion du déploiement visant à garantir qu’elles fonctionnent comme prévu avant leur publication.

Pour plus d’informations sur la fiabilité et la sécurité, regardez la vidéo suivante.

Confidentialité et sécurité

Les systèmes d’IA doivent être sécurisés et respecter la vie privée. Les modèles Machine Learning sur lesquels les systèmes d’IA sont basés s’appuient sur de gros volumes de données qui peuvent contenir des informations personnelles qui doivent rester confidentielles. Même une fois que les modèles sont entraînés et que le système est en production, la confidentialité et la sécurité doivent être prises en compte. À mesure que le système utilise de nouvelles données pour faire des prédictions ou prendre des mesures, les données et les décisions prises à partir des données peuvent faire l’objet de problèmes de confidentialité ou de sécurité.

Pour plus d’informations sur la confidentialité et la sécurité, regardez la vidéo suivante.

Inclusivité

Les systèmes d’IA doivent impliquer tout le monde et intéresser les gens. L’IA doit apporter des avantages à toutes les parties de la société, sans discriminer les capacités physiques, le genre, l’orientation sexuelle, l’origine ethnique ou autres facteurs.

Pour plus d’informations sur l’inclusivité, regardez la vidéo suivante.

Transparence

Les systèmes d’IA doivent être compréhensibles. Les utilisateurs doivent être pleinement conscients de la finalité du système, de son fonctionnement et des limites auxquelles ils doivent s’attendre.

Pour plus d’informations sur la transparence, regardez la vidéo suivante.

Responsabilité

La responsabilité des systèmes d’IA doit être imputable à des personnes. Les concepteurs et les développeurs de solutions basées sur l’IA doivent travailler dans un cadre de gouvernance et de principes organisationnels afin de garantir que la solution respecte des normes éthiques et juridiques clairement définies.

Pour plus d’informations sur la responsabilité, regardez la vidéo suivante.

Les principes de l’IA responsable peuvent vous aider à comprendre certaines des difficultés auxquelles font face les développeurs lorsqu’ils essaient de créer des solutions d’intelligence artificielle éthiques.

Autres ressources

Pour obtenir d’autres ressources permettant de mettre en pratique les principes de l’IA, consultez https://www.microsoft.com/ai/responsible-ai-resources.

Pour voir ces politiques mises en application, vous pouvez lire Cadre de Microsoft pour créer des systèmes IA de manière responsable.