L’écrasante majorité des algorithmes qui régissent notre quotidien a été testé sur des hommes. Quelles en sont les conséquences pour les utilisatrices ? Interview.
Le monde a bien souvent été pensé par les hommes pour les hommes, défavorisant toujours plus leurs congénères du sexe opposé. Ce fut le cas au XIXe avec la révolution industrielle qui s’est faite sans les femmes et nous a longtemps remisées à la maison. Cela se profile à nouveau avec l’intelligence artificielle : les algorithmes qui régissent de nombreux aspects de notre quotidien sont biaisés, comme le révèlent Aude Bernheim et Flora Vincent dans leur livre « L’Intelligence Artificielle, pas sans elles ! » De la reconnaissance faciale au système d’airbag dans les voitures, tout a été calculé selon des modèles masculins, ce qui a un impact direct sur le quotidien des femmes. Décryptage avec Aude Bernheim, Doctorante à l’Institut Pasteur.
ELLE. SELON VOUS LES ALGORITHMES SONT SEXISTES ?
Aude Bernheim. Oui ! Ils vont traiter l’information « homme » ou « femme » de façon différente. L’exemple le plus frappant reste celui des logiciels de traduction, comme Google translate : quand on traduit depuis l’anglais, qui est une langue non genrée, le mot « a nurse », on obtient systématiquement « une infirmière » tandis que « a doctor » est traduit par « un docteur ». Les algorithmes, de cette manière, reproduisent des discriminations existantes dans nos sociétés.
ELLE. À QUOI EST-CE DÛ ?
A.B. Il y a plusieurs étapes dans la construction d’un algorithme. Et à chacune d’entre elles, des biais sont introduits. Quand on construit un algorithme, on commence par se poser une question et se fixer un objectif. Par exemple, on veut que l’algorithme puisse reconnaître, parmi un certain nombre de bulletins de notes, les plus intéressants afin de sélectionner les meilleurs candidats pour l’université. Il va falloir donc définir que l’on cherche comme type d’étudiant quand on dit « meilleur » : est-ce que je prends la moyenne de toutes les notes, ou la meilleure marge de progression ? Cette façon de traduire mathématiquement une volonté assez généraliste peut introduire des biais, parce qu’en fonction du mode de sélection, on ne va pas sélectionner exactement le même type de profils. Ensuite, la deuxième étape consiste à entraîner l’algorithme. On lui donne un corpus de textes pour lui apprendre à reconnaître ce qu’il faut. Dans de nombreux cas, cette base de données va être très biaisée. Google translate va traduire nécessairement « a nurse » par « une infirmière » et « a doctor » par « un docteur » parce que dans les textes qui lui ont été donnés pour apprendre, il y a une immense majorité des cas où « a doctor » est traduit par un docteur. Dernier problème : beaucoup de codes sont réutilisés d’un algorithme à l’autre, alors qu’ils sont déjà biaisés. Dès lors qu’on corrigera ces biais, on verra un effet domino et les algorithmes utilisant les mêmes codes seront moins biaisés.
ELLE. COMMENT Y REMÉDIER ?
A.B. Il faut un mix de solutions humaines et techniques. Faire que les bases de données soient égalitaires, c’est technique. Par solution humaine, j’entends qu’il faut aussi former les gens à reconnaître les biais algorithmiques : former les développeurs et développeuses qui codent ces algorithmes, mais aussi former les utilisateurs. Si une personne en charge du recrutement épluche des CV, elle aura sûrement reçu une formation en amont sur les inégalités femmes-hommes et les biais dans les recrutements. En revanche, si elle utilise un algorithme, et qu’elle lui fait pleinement confiance, elle ne sera pas vigilante. Alors que si elle est formée à bien analyser ces données-là, elle pourra rectifier ces biais algorithmiques.
ELLE. CES BIAIS SONT-ILS LIÉS AU FAIT QUE L’ÉCRASANTE MAJORITÉ DES PERSONNES QUI CRÉENT LES ALGORITHMES SONT DES HOMMES ?
A.B. L’intuition dirait que oui. Pourquoi ? Le fait est que quand on teste un nouveau produit, on le fait sur les gens autour de soi. Si je crée une application de reconnaissance faciale, je la teste d’abord sur moi, et si ça ne marche pas je comprends qu’il y a un problème. Imaginons maintenant que dans une équipe, on ne soit que des hommes blancs entre 20 et 50 ans. L’algorithme risque alors de fonctionner surtout pour cette population. Beaucoup de lanceurs d’alerte qui dénoncent ces biais sont des individus qui ne correspondaient pas aux critères de ces algorithmes et se retrouvaient dans une impasse technologique. Il y a aussi des travaux sur l’IA qui montrent que lorsque les équipes sont mixtes, on va avoir tendance à prendre davantage en compte la dimension du genre.
ELLE. POURQUOI Y A-T-IL MOINS DE FEMMES DANS LE DOMAINE DE L’INTELLIGENCE ARTIFICIELLE ?
A.B. Il y a un problème de mixité dans les sciences. On est une société très genrée, qui soutient l’idée que certains métiers sont féminins et d’autres masculins. C’est particulièrement le cas en informatique ou il y a beaucoup de stéréotypes culturels dans les fictions et l’imaginaire lié à la figure du geek, ce qui accentue ces disparités. De facto, les femmes qui choisissent des études d’informatique se retrouvent en très forte minorité. Cela crée un problème de culture dans les écoles et les entreprises, et pousse de nombreuses femmes à quitter ces domaines. Heureusement, des établissements comme l’École 42 font bouger les lignes et admettent chaque année davantage de femmes. Maintenant il faut encore voir si la culture en entreprise va elle aussi évoluer et permettre de garder les femmes qui osent enfin se lancer dans l’informatique !