Faut-il s’attendre à un renforcement des stéréotypes de genre avec l’intelligence artificielle ?

Temps de lecture : 5 minutes

Faut-il s’attendre à un renforcement des stéréotypes de genre avec l’intelligence artificielle ?

Illustrateur Nato Tardieu

12.03.2020

Par Déborah Rouach

L’intelligence artificielle aurait pu offrir la possibilité à l’humanité de créer une intelligence libre de toute croyance, de tout préjugé et tout stéréotype. Or, c’est oublier qu’elle n’est pas une intelligence autonome mais bien le concept d’êtres humains ayant une perception étroite et biaisée de la réalité. En outre, l’intelligence artificielle n’est pas en mesure d’expliquer ni de percevoir les discriminations de genre qu’elle recèle, il est donc à craindre qu’elle exacerbe par inadvertance les préjugés sexistes existants et renforce les inégalités entre les sexes.

Pourquoi l’intelligence artificielle adopte les stéréotypes de genre ?

« Comme toutes les technologies avant elle, l’intelligence artificielle reflétera les valeurs de ses créateurs [1]CRAWFORD Kate, « Artificial Intelligence’s White Guy Problem », 25 juin 2016, New York Times, disponible sur : … Continue reading ». Dès 2016, la chercheuse Kate Crawford mettait en évidence les risques d’une IA imprégnée par la manière de penser de ses concepteurs. Bien que ces derniers, principalement des hommes, se targuent de la neutralité de leur programme, ils projettent consciemment ou inconsciemment leur imaginaire sur leur création. L’informaticienne Joanna Bryson rappelle en ce sens que l’IA incarne une extension de notre culture. Un rapport de AI Now publié en 2018 révèle qu’il y a un consensus grandissant au sujet du manque de neutralité et d’objectivité des systèmes d’intelligence artificielle.

Il est néanmoins plus délicat de faire reconnaître le lien entre les produits discriminatoires de l’industrie de l’IA et leurs créateurs, des hommes. La chercheuse Rachel Adams soutient en ce sens l’existence « d’un lien essentiel entre le développement de systèmes d’IA qui présentent des préjugés sexistes et le manque de femmes dans les équipes qui les conçoivent ». Le rapport de 2018 du Global Gender Gap réalisé dans le cadre du Forum économique mondial dénonçait déjà la surreprésentation des hommes dans la conception et le développement des technologies de l’IA avec seulement 22 % de femmes.

 

Fondée sur l’apprentissage automatique, l’IA intériorise une vision désuète de la société qui retranscrit l’incapacité des humains à se défaire des préjugés enracinés dans leur perception du monde. Une IA, au cours de sa conception, intègre trois échelons d’idées préconçues : les données traitées imprégnées de préjugés humains, les algorithmes qui apprennent des données du monde réel et les personnes qui participent à son élaboration et à sa perception du monde.

Les assistants personnels virtuels, dont le genre est en majorité féminin, en sont la preuve. Que ce soit de par leur nom, Alexa, Cortana, Siri, leur voix et leur flirt programmé, ces assistants reproduisent des stéréotypes discriminatoires envers les femmes et participent à ancrer dans nos conceptions que les femmes sont des subalternes, en plus d’être serviables et d’obéir. Par ailleurs, la numérisation du métier de secrétaire, majoritairement féminin dans la réalité, peut susciter des attentes quant à la façon dont les vraies femmes devraient se comporter.

Les robots physiques incarnent plus visiblement les stéréotypes de genre comme ceux aux courbes et à la voix féminine qui animent des salons et ceux qui accompagnent des patients dans les établissements de soins. En comparaison, les chatbots techniques sont souvent masculins. Il y a donc une reproduction du genre des divers corps de métier à travers l’usage de l’IA qui vient exacerber la catégorisation figée de notre société fondée sur la répartition des tâches par rapport au genre. De plus, cette anthropomorphisation d’entités non humaines s’explique notamment comme une tentative de comprendre et de contrôler l’intelligence artificielle en utilisant des expériences du monde humain. Toutefois, en admettant que la féminisation des robots soit un souhait des clients afin de se sentir plus en confiance par rapport à un robot masculin qui apparaitrait inquiétant, on ne peut négliger le fait que l’intelligence artificielle contribue à accroître le sexisme et la misogynie présents dans nos sociétés.

Quelles implications ?

Le risque serait qu’au fil du temps on considère l’IA comme objective et délivrant une nouvelle norme dépourvue de nos défauts humains alors qu’elle en serait la quintessence même. Révolutionnaire, l’IA est amenée à être présente dans toutes les sphères de notre quotidien et à y avoir une place de plus en plus importante. Elle pourrait donc participer à conditionner les hommes et les femmes à se conformer aux rôles de genre traditionnels à travers des algorithmes qui consolident ces stéréotypes.

Reproduire une vision désuète de la société entamerait un recul par rapport aux avancées en matière d’égalité de genre renforçant, de fait, la structure de domination patriarcale. Ainsi, une IA non sensibilisée aux notions d’égalité et de diversité de genre sera susceptible de favoriser uniquement des hommes lors d’entretien d’embauche, comme cela a été le cas pour le Google Hire, ou de perpétuer l’écart de rémunération en ciblant les annonces d’emplois mieux rémunérées vers les hommes. Les logiciels de reconnaissance faciale utilisant l’IA pourraient également causer préjudice aux personnes ne s’identifiant selon les standards binaires du genre. Ces constats sont d’autant plus inquiétant qu’un nombre croissant d’entreprises font appel à l’IA qui jusqu’à présent amplifie de manière dangereuse les discriminations fondées sur le genre d’une personne.

Comment développer une IA équitable ?

Afin de remédier aux potentiels préjudices causés par une IA misogyne et non éthique, il faut agir sur différents facteurs. Premièrement, il faut prendre en compte que l’idéologie de genre est ancrée dans le langage. Les données et les algorithmes qui alimentent l’apprentissage automatique de l’IA doivent donc se baser sur des corpus de textes, des échantillons d’entraînement et des programmes qui promeuvent la diversité et l’égalité de genre et incorporent des concepts d’équité. En ce qui concerne les équipes concevant les logiciels et les algorithmes, elles doivent représenter une plus grande diversité et s’enrichir de la présence de professionnelles. D’autant plus que ce sont majoritairement des femmes qui cherchent à résoudre le problème du manque de considération pour l’égalité de genre au sein de l’IA.

Les notions de neutralité, de transparence, d’inclusivité prennent une place grandissante au cœur de la réflexion sur les conséquences de l’IA sur nos sociétés. S’il n’existe pour le moment aucun standard qui fasse consensus afin de déterminer si une IA fait preuve de sexisme, des cabinets proposent néanmoins de l’audit aux entreprises qui souhaitent vérifier l’équité de leurs algorithmes. La prise de conscience de l’importance d’adopter une approche interdisciplinaire concernant l’intelligence artificielle est de ce fait encourageante pour l’avenir.

 

Sources

ADAMS Rachel, « Artificial Intelligence has a gender bias problem – just ask Siri », 22 septembre 2019,  The Conversation, disponible sur : https://theconversation.com/artificial-intelligence-has-a-gender-bias-problem-just-ask-siri-123937

CHARATAN Debrah, « How more women in AI could change the world », 15 avril 2018, VentureBeat, disponible sur : https://venturebeat.com/2018/04/15/how-more-women-in-ai-could-change-the-world/

CRAWFORD Kate, « Artificial Intelligence’s White Guy Problem », 25 juin 2016, New York Times, disponible sur : https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html

FEAST Josh, « 4 Ways to Address Gender Bias in AI »,  20 novembre 2019, Harvard Business Review, disponible sur : https://hbr.org/2019/11/4-ways-to-address-gender-bias-in-ai

LEAVY Susan, Gender bias in artificial intelligence: the need for diversity and gender theory in machine learning, University College Dublin, mai 2018.

LEGROS Claire, « Les études de genre se penchent sur le sexe des robots », 25 septembre 2018, Le Monde,  disponible sur : https://www.lemonde.fr/festival/article/2018/09/25/les-etudes-de-genre-se-penchent-sur-le-sexe-des-robots_5359786_4415198.html

LEGROS Claire, propos de BERNHEIM Aude et VINCENT Flora, 03 mars 2019, Le Monde, disponible sur : https://www.lemonde.fr/economie/article/2019/03/03/le-manque-de-femmes-dans-l-intelligence-artificielle-accroit-le-risque-de-biais-sexistes_5430820_3234.html

Rapport AI Now, décembre 2018, disponible sur : https://ainowinstitute.org/AI_Now_2018_Report.pdf

Rapport Global Gender Gap 2018, Forum économique mondial, disponible sur : Global Gender Gap Report (2018),

RAUCH Isabelle, « Si l’on n’y prend garde, l’intelligence artificielle reproduira nos stéréotypes de genre », Tribune du 07 février 2020, Le Monde, disponible sur : https://www.lemonde.fr/idees/article/2020/02/07/si-l-on-n-y-prend-garde-l-intelligence-artificielle-reproduira-nos-stereotypes-de-genre_6028811_3232.html

REDDY Deepti, « Breaking Gender Bias in Artificial Intelligence », 17 avril 2017, Medium, disponible sur : https://medium.com/my-ally/breaking-gender-bias-in-artificial-intelligence-c3c143038c20

 

Pour citer cet article : Deborah Rouach,  » Faut-il s’attendre à un renforcement des stéréotypes de genre avec l’intelligence artificielle ? « , 12.03.2020, Institut du Genre en Géopolitique.

References

References
1 CRAWFORD Kate, « Artificial Intelligence’s White Guy Problem », 25 juin 2016, New York Times, disponible sur : https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html