Indissociable de l’intelligence artificielle (IA) dont il constitue une partie intégrante, l’apprentissage automatique s’est beaucoup développé ces vingt dernières années. Il vise à entraîner un modèle pour répondre à un problème en lui soumettant une multitude d’exemples représentatifs de la mission à réaliser. Son impact s’avère de plus en plus important sur la société, mais est parfois critiqué pour son manque d’équité. Ainsi, à plusieurs reprises, des algorithmes d’apprentissage ont été accusés d’être discriminatoires à l’égard de certaines catégories de la population (selon le genre, les origines sociales, etc.).
« De même qu’au début du XXe siècle, les philosophes ont examiné une évolution de la société qui a vu des institutions commencer à prendre à la place des individus des décisions importantes, comme celles relatives au droit et à la détermination des sentences, il est essentiel d'analyser ces algorithmes sous l'angle de leur impact sociétal », souligne Gaurav Maheshwari, qui a mené sa thèse chez Inria au sein de l’équipe-projet Magnet jusqu’en 2024. Sa recherche visait à examiner et à proposer des moyens de mesurer et d’atténuer l’effet négatif des biais sociétaux. Inhérents aux données utilisées pour entraîner les algorithmes, ces biais reflètent en réalité les inégalités propres aux sociétés dans lesquelles les données sont collectées.
Des biais sociétaux susceptibles de renforcer la discrimination
Comment peut-on définir ces biais ? Pour cela, Gaurav Maheshwari cite Kate Crawford, éminente théoricienne des implications sociales et politiques de l'IA qui a identifié deux types prédominants de dommages associés à l'apprentissage automatique : le biais d'allocation (ou d’attribution) et le biais de représentation. Le premier se produit lorsque des groupes de population se voient attribuer ou refuser des opportunités et des ressources de manière injuste, en raison d'une intervention algorithmique. Le second apparait lorsque les systèmes algorithmiques perpétuent et amplifient les stéréotypes associés à certains groupes sociaux.
Pour mener à bien ses recherches, Gaurav Maheshwari a pu s’appuyer sur un soutien de taille : sa thèse s’est inscrite dans le cadre du projet ANR Slant (Signaux de biais en LAngage Naturel: Théorie et pratique), achevé en 2024. Outre Inria, celui-ci mobilisait l’Institut de recherche en informatique de Toulouse (Irit) et l’université du Luxembourg.
« Ce projet ANR avait pour objectif de caractériser les biais politiques dans les médias, mais nous nous sommes mis d’accord pour continuer d’avancer sur les biais d’allocation. Les chercheurs de Toulouse et du Luxembourg ont, eux, travaillé sur les biais de représentation », précise Mikaela Keller, maîtresse de conférences à l’université de Lille, qui a co-encadré cette thèse avec deux chercheurs de l’équipe-projet Magnet, Aurélien Bellet et Pascal Denis. « Les deux types de biais sont liés : les biais de représentation agissent très probablement sur l’allocation des ressources, et en corrigeant les biais d’allocation on peut supposer que l’on corrige de façon implicite certains biais de représentation », poursuit-elle.
Un logiciel open source pour corriger les biais
Étonnamment, même lorsque l’algorithme se base sur des données anonymisées, des biais peuvent émerger en raison d’éléments associés à des stéréotypes. Exemple typique : le tri de CV automatisé à partir de profils existants.
Verbatim
Si les CV sont en majorité masculins, comme dans le secteur de l’informatique, alors l’algorithme risque d’écarter les CV féminins, et ce même si le genre n’apparaît pas explicitement. La socialisation différente entre hommes et femmes induit des biais qui permettent d’identifier le genre de la personne. Par exemple à travers la fréquence d’utilisation de certains mots.
Maîtresse de conférences à l’Université de Lille, équipe-projet Inria Magnet
Comment lutter contre ce phénomène ? « En réponse, nous proposons une série d’algorithmes conçus pour mesurer et atténuer les dommages liés à l'allocation inéquitable de ressources tout au long du processus d’apprentissage automatique », explique Gaurav Maheshwari. Avec Michaël Perrot, il a ainsi élaboré un logiciel dénommé FairGrad (Fairness Aware Gradient Descent), qui accroît dynamiquement l’importance des données des personnes désavantagées, tout en diminuant l’impact de celles avantagées.
Cette méthode d’apprentissage est diffusée en open source, ce qui permet de l’adapter facilement à des systèmes existants. « Grâce à des expériences menées sur plus de dix jeux de données et six modèles de base, nous avons démontré que FairGrad est une méthode de traitement efficace, offrant une large applicabilité avec un surcoût de calcul limité », se félicite Gaurav Maheshwari.
Tenir compte de l’intersectionnalité
Mais le chercheur et ses coéquipiers ne se sont pas arrêtés en si bon chemin… Ils ont examiné ensuite FairGrad sous l’angle de « l’intersectionnalité ». Autrement dit, ils ont pris en compte de multiples attributs sensibles simultanément.
Verbatim
Des études récentes ont démontré que même lorsque l'équité peut être assurée entre deux groupes, sur le plan de chaque axe sensible individuel, une iniquité significative peut encore exister au niveau des intersections - lorsqu’une personne appartient à plusieurs groupes (par exemple les femmes afro-américaines).
Ex-doctorant de l’équipe-projet Inria Magnet
Une démarche inédite, comme le souligne Mikaela Keller : « Travailler sur l’intersectionnalité est l’une des innovations proposées par Gaurav. Jusque-là, il y avait peu de recherches sur ces cas qui associent plusieurs dimensions sensibles. » Résultat, les chercheurs de l’équipe ont fait le constat suivant : plusieurs approches censées favoriser l’équité portent pourtant atteinte aux groupes concernés !
Au croisement de l’équité et de la vie privée
Face à ce problème, Gaurav Maheshwari et ses coéquipiers ont trouvé la parade : un nouveau mécanisme de génération de données pour les personnes à l’intersection de plusieurs catégories, par combinaison des données de groupes apparentés. Par exemple, pour les femmes âgées afro-américaines, les données se baseront sur trois catégories distinctes : les personnes âgées afro-américaines, les femmes âgées et les femmes afro-américaines. « Nous montrons que cette approche permet non seulement de produire de nouveaux exemples réalistes, mais aussi d’améliorer les performances dans les scénarios les plus défavorables », explique le chercheur.
Autre thème de recherche étudié par Gaurav Maheshwari et ses coéquipiers : le respect de l’anonymat des données. « C’est l’un des grands sujets de Magnet, par conséquent cette idée est venue assez naturellement, relate Mikaela Keller. Nous avons mis au point FEDERATE, une méthode qui consiste à essayer de "débiaiser" un algorithme, tout en préservant l’anonymat des données utilisées. Ces deux objectifs semblaient auparavant antagonistes, mais Gaurav a proposé un nouvel algorithme avec un certain succès ». Une initiative très prometteuse aux yeux de la chercheuse : « Ces travaux sont encore préliminaires, mais cela fait avancer l’état de l’art et c’est une autre pierre ajoutée à l’édifice de l’équité dans l’IA. »
En savoir plus
- La société est biaisée, et cela biaise l’IA, The Conversation, 4/11/2024.
- IA décentralisée : comment garantir davantage d’équité et de respect de la vie privée ? Inria, 2/10/2023.
- Algorithmes : discriminations, sexisme et racisme, ce que vous devez savoir, Franceinfo, 21/6/2023.
- Les discriminations algorithmiques | 2 minutes d'IA (vidéo), Sorbonne Université, 10/11/2021.
- Des biais de représentativité en intelligence artificielle, Binaire (blog du Monde sur l'informatique), 31/8/2021.
Pour les experts
- FairGrad : Fairness Aware Gradient Descent, par Gaurav Mahesharwari, Michaël Perrot, Transactions on Machine Learning Research, 8/2023.