Rechercher
Fermer ce champ de recherche.

Les chercheurs disent que le domaine de l’intelligence artificielle est trop blanc et trop masculin

Un nouveau rapport explore la « crise de la diversité » d’Amnesty International

Le secteur de l’intelligence artificielle est confronté à une « crise de la diversité », ont déclaré des chercheurs de l’AI Now Institute dans un rapport publié hier, soulevant des questions clés sur l’orientation du terrain.

Selon le rapport, les femmes et les personnes de couleur sont profondément sous-représentées, soulignant des études selon lesquelles environ 80 % des professeurs d’Amnesty International sont des hommes, tandis que 15 % seulement des chercheurs d’Amnesty International sur Facebook et 10 % de Google sont des femmes. Les personnes de couleur sont également mises à l’écart et ne représentent qu’une fraction du personnel des grandes entreprises de technologie. Il en résulte une main-d’œuvre souvent motivée par des points de vue masculins et blancs, qui crée des outils qui affectent souvent d’autres groupes de personnes. « Ce n’est pas la diversité des personnes touchées par ces systèmes », a déclaré Meredith Whittaker, codirectrice du AI Now Institute.

Pire encore, les projets visant à améliorer le problème en réparant le « pipeline » de candidats potentiels à des emplois ont largement échoué. « Malgré plusieurs décennies d’études en cours qui évaluent le flux de candidats diversifiés de l’école à l’industrie, il n’y a pas eu de progrès substantiel en matière de diversité dans le secteur de l’IA», écrivent les chercheurs.

 

« Nous devons savoir que ces systèmes sont sûrs et équitables. »

Les chercheurs font des suggestions pour améliorer le problème. Selon elles, les entreprises pourraient améliorer la transparence en publiant davantage de données sur les rémunérations, ventilées par race et par sexe, et en publiant des rapports sur la transparence en matière de harcèlement et de discrimination.

La diversité, tout en constituant un obstacle pour l’industrie technologique, présente des dangers spécifiques pour l’IA, où une technologie potentiellement biaisée, telle que la reconnaissance faciale, peut affecter de manière disproportionnée des groupes historiquement marginalisés. Des outils tels qu’un programme d’analyse des visages pour déterminer la sexualité, introduit en 2017, font écho aux injustices du passé, écrivent les chercheurs. Des tests rigoureux sont nécessaires. Mais, plus que cela, les fabricants d’outils d’intelligence artificielle doivent être disposés à ne pas construire les projets les plus risqués. « Nous devons savoir que ces systèmes sont sûrs et équitables », a déclaré Kate Crawford, codirectrice de l’AI Now Institute.

Les employés de l’industrie technologique ont pris position sur certains problèmes majeurs d’intelligence artificielle en exhortant leurs entreprises à abandonner ou à revoir l’utilisation d’outils sensibles susceptibles de nuire aux groupes vulnérables. Les travailleurs d’Amazon ont interrogé les dirigeants sur le produit de reconnaissance faciale de la société. Récemment, les travailleurs de Google ont réagi contre un comité d’examen d’intelligence artificielle comprenant le président de la Heritage Foundation, soulignant les antécédents du groupe dans le lobbying contre les droits des LGBTQ. La société a rapidement dissous le conseil entièrement.

« La crise de la diversité dans l’IA est bien documentée et de grande portée », concluent les chercheurs. « Cela se voit dans des milieux de travail inégaux dans l’industrie et dans le monde universitaire, dans les disparités en matière d’embauche et de promotion, dans les technologies d’IA qui reflètent et amplifient les stéréotypes biaisés, et dans la réapparition du déterminisme biologique dans les systèmes automatisés. »

Facebook
Twitter
LinkedIn