Épisode

Comment tester l’équité des modèles de test avec Fairlearn - Exploration approfondie

Rejoignez-nous pour en savoir plus sur notre code source ouvert kit de ressources d’équité machine learning, Fairlearn, qui permet aux développeurs de systèmes d’intelligence artificielle d’évaluer l’équité de leurs systèmes et d’atténuer les problèmes d’équité observés. Fairlearn se concentre sur les impacts négatifs pour les groupes de personnes, tels que ceux définis en termes de race, de sexe, d’âge ou d’état d’invalidité.
Il existe deux composants à Fairlearn : le premier est un tableau de bord d’évaluation, avec des vues générales et détaillées, pour évaluer les groupes qui sont affectés négativement. La deuxième est un ensemble de stratégies pour atténuer les problèmes d’équité. Ces stratégies sont faciles à incorporer dans des pipelines de Machine Learning existants. Ensemble, ces composants permettent aux scientifiques des données et aux dirigeants d’entreprises de parcourir tous les compromis entre l’équité et les performances, et de sélectionner la stratégie d’atténuation qui répond le mieux à leurs besoins.