Performances et impartialité du modèle
Cet article décrit les méthodes applicables pour connaître le niveau de performance et l’impartialité d’un modèle dans Azure Machine Learning.
Qu’est-ce que l’impartialité de l’apprentissage automatique ?
Des systèmes d’intelligence artificielle et d’apprentissage automatique affichent parfois un comportement partial. On peut définir un comportement partial comme un comportement qui nuit à des personnes ou a une incidence sur celles-ci. Les systèmes d’IA peuvent occasionner de nombreux types de préjudices. Pour plus d’informations, consultez le discours de Kate Crawford au NeurIPS 2017.
Parmi les types courants de préjudices que peut occasionner l’intelligence artificielle, citons les deux suivants :
Préjudice d’allocation : un système d’IA étend ou retient des opportunités, des ressources ou des informations pour certains groupes. Il peut s’agir, par exemple, d’embauche, d’admission dans un établissement d’enseignement ou d’octroi de prêt, où un modèle pourrait être plus enclin à sélectionner des candidats issus d’un groupe spécifique de personnes que d’autres groupes.
Préjudice de qualité de service : un système d’IA ne fonctionne pas aussi bien pour un groupe de personnes que pour un autre. Par exemple, un système de reconnaissance vocale peut ne pas fonctionner aussi bien pour les femmes que pour les hommes.
Pour minimiser les comportements partiaux des systèmes d’intelligence artificielle, vous devez évaluer et atténuer ces préjudices. Le composant de vue d’ensemble du modèle du tableau de bord de l’IA responsable contribue à l’étape d’identification du cycle de vie du modèle en générant des métriques de performances de modèle pour le jeu de données tout entier et les cohortes de données identifiées. Il génère ces métriques à travers les différents sous-groupes identifiés en termes de caractéristiques sensibles ou d’attributs sensibles.
Notes
L’impartialité est un défi socio-technique. Les métriques quantitatives d’impartialité passent sous silence de nombreux aspects de l’impartialité, et en particulier la justice et l’équité des processus. De même, de nombreuses métriques quantitatives d’impartialité ne peuvent pas être satisfaites simultanément.
L’objectif du package open source Fairlearn consiste à permettre à des humains d’évaluer les stratégies d’impact et d’atténuation. Au bout du compte, c’est à la personne qui crée des modèles IA et Machine Learning d’effectuer des compromis appropriés pour ses scénarios.
Dans ce composant du tableau de bord de l’IA responsable, l’impartialité est conceptualisée au travers d’une approche connue sous le nom d’équité des groupes. Cette approche pose la question suivante : « Quels sont les groupes d’individus exposés à un éventuel préjudice ? » Le terme « caractéristiques sensibles » suggère que le concepteur du système doit être sensible à ces caractéristiques lorsqu’il évalue l’équité des groupes.
Pendant la phase d’évaluation, l’impartialité est quantifiée à l’aide de métriques de disparité. Ces métriques permettent d’évaluer et de comparer le comportement du modèle selon les groupes par le biais de ratios ou de différences. Le tableau de bord de l’IA responsable prend en charge deux classes de métriques de disparité :
Disparités dans le niveau de performance du modèle : ces ensembles de métriques calculent les disparités (différences) entre les sous-groupes de données dans les valeurs de la métrique de performances sélectionnée. Voici quelques exemples :
- Disparités dans le taux d’exactitude
- Disparités dans le taux d’erreurs
- Disparités dans la précision
- Disparités dans le rappel
- Disparités dans l’erreur absolue moyenne
Disparités dans le taux de sélection : cette métrique exprime la différence de taux de sélection (prédiction favorable) entre les sous-groupes. Il s’agit, par exemple, d’une disparité de taux d’approbation de prêt. Le taux de sélection signifie la fraction de points de données dans chaque classe qui sont classifiés comme 1 (dans une classification binaire), ou la distribution de valeurs de prédiction (dans une régression).
Les capacités d’évaluation de l’impartialité de ce composant proviennent du package Fairlearn. Fairlearn fournit une collection de métriques d’évaluation de l’impartialité des modèles et d’algorithmes d’atténuation de la partialité.
Notes
L’évaluation de l’impartialité n’est pas un exercice purement technique. Le package open source Fairlearn peut identifier des métriques quantitatives permettant d’évaluer l’impartialité d’un modèle, mais il n’effectue pas cette évaluation. Vous devez réaliser une analyse qualitative pour déterminer l’impartialité de vos propres modèles. Les caractéristiques sensibles mentionnées précédemment constituent un exemple d’analyse qualitative de ce type.
Contraintes de parité pour atténuer la partialité
Une fois que vous avez compris les problèmes d’impartialité de votre modèle, vous pouvez utiliser les algorithmes d’atténuation du package open source Fairlearn pour atténuer ces problèmes. Ces algorithmes prennent en charge un ensemble de contraintes déterminant le comportement du prédicteur, appelées contraintes de parité ou critères.
Les contraintes de parité imposent que certains aspects du comportement du prédicteur soient comparables entre les groupes définis par des caractéristiques sensibles (par exemple la nationalité). Les algorithmes d’atténuation dans le package open source Fairlearn utilisent ces contraintes de parité pour atténuer les problèmes de partialité observés.
Notes
Les algorithmes d’atténuation des risques de partialité du package open source Fairlearn fournissent des suggestions de stratégies d’atténuation pour réduire la partialité d’un modèle Machine Learning. Toutefois, ces stratégies n’éliminent pas la partialité. Les développeurs devront peut-être envisager d’autres contraintes ou critères de parité pour leurs modèles Machine Learning. Ceux qui utilisent Azure Machine Learning doivent déterminer eux-mêmes si l’atténuation réduit suffisamment la partialité dans le cadre de l’utilisation et du déploiement de modèles Machine Learning qu’ils ont prévus.
Le package open source Fairlearn prend en charge les types de contraintes de parité suivants :
Contrainte de parité | Objectif | Tâche d’apprentissage automatique |
---|---|---|
Parité démographique | Atténuer les préjudices d’allocation | Classification binaire et régression |
Chances équilibrées | Diagnostiquer les préjudice d’allocation et de qualité de service | Classification binaire |
Égalité des chances | Diagnostiquer les préjudice d’allocation et de qualité de service | Classification binaire |
Perte de groupe limité | Atténuer les préjudices de qualité de service | régression ; |
Algorithmes d’atténuation
Le package open source Fairlearn fournit deux types d’algorithmes d’atténuation de la partialité :
Réduction : ces algorithmes prennent un estimateur de Machine Learning de type boîte noire standard (par exemple un modèle LightGBM) et génèrent un ensemble de modèles ayant fait l’objet d’un nouvel apprentissage à l’aide d’une séquence de jeux de données d’entraînement repondérés.
Par exemple, les candidats d’un certain sexe peuvent être pondérés positivement ou négativement de façon à effectuer à nouveau l’apprentissage des modèles en réduisant les disparités entre groupes de sexe différent. Les utilisateurs peuvent ensuite choisir le modèle offrant le meilleur compromis entre exactitude (ou d’autres métriques de performances) et disparités, en fonction de leurs règles d’entreprise et de calculs de coût.
Post-traitement : ces algorithmes prennent en entrée un classifieur existant et une caractéristique sensible. Ils dérivent ensuite une transformation de la prédiction du classifieur pour appliquer les contraintes d’impartialité spécifiées. Le principal avantage d’un algorithme de post-traitement unique, l’optimisation de seuil, réside dans sa simplicité et sa flexibilité. Il n’est en effet pas nécessaire d’effectuer à nouveau l’apprentissage du modèle.
Algorithm | Description | Tâche d’apprentissage automatique | Caractéristiques sensibles | Contraintes de parité prises en charge | Type d’algorithme |
---|---|---|---|---|---|
ExponentiatedGradient |
Approche de type boîte noire de la classification impartiale décrite dans l’article A Reductions Approach to Fair Classification. | Classification binaire | Par catégorie | Parité démographique, Chances équilibrées | Réduction |
GridSearch |
Approche de type boîte noire décrite dans l’article A Reductions Approach to Fair Classification. | Classification binaire | Binary | Parité démographique, Chances équilibrées | Réduction |
GridSearch |
Approche de type boîte noire qui implémente une variante de type quadrillage de la régression impartiale avec l’algorithme de perte de groupe limité décrit dans le document Fair Regression: Quantitative Definitions and Reduction-based Algorithms. | régression ; | Binary | Perte de groupe limité | Réduction |
ThresholdOptimizer |
Algorithme de post-traitement basé sur le document Equality of Opportunity in Supervised Learning. Cette technique prend en entrée un classifieur existant et une caractéristique sensible. Elle dérive ensuite une transformation monotone de la prédiction du classifieur pour appliquer les contraintes de parité spécifiées. | Classification binaire | Par catégorie | Parité démographique, Chances équilibrées | Post-traitement |
Étapes suivantes
- Découvrez comment générer le tableau de bord d’IA responsable par le biais de CLIv2 et SDKv2 ou de l’interface utilisateur d’Azure Machine Learning studio.
- Explorez la vue d’ensemble du modèle pris en charge et les visualisations d’évaluation de l’impartialité du tableau de bord d’IA responsable.
- Découvrez comment générer une carte de performance d’IA responsable basée sur des insights observées dans le tableau de bord d’IA responsable.
- Découvrez comment utiliser les composants en consultant le référentiel GitHub, le guide de l’utilisateur, les exemples et les exemples de notebooks de Fairlearn.