Retour

Article

Faut-il arrêter de donner des prénoms féminins aux IA ?

Sylvie Borau

Intelligence artificielle

  4 mins

 

Entretien sur la féminisation des intelligences artificielles et leur acceptabilité

Enseignante-chercheuse en marketing à TBS Education et chercheuse affiliée à l’Institute for advanced study in Toulouse (IAST), Sylvie Borau consacre ses travaux aux stéréotypes de genre dans le marketing. Dans un article publié dans The Conversation en septembre dernier, à propos de Diella, ministre artificielle en Albanie, elle alerte sur un angle mort des débats technologiques : le genre des intelligences artificielles souvent nommées Sophia, Amelia, Alexa ou Cortana. Selon elle, "cela pourrait renforcer les stéréotypes selon lesquels les femmes sont des objets."

Comment en êtes-vous venue à vous intéresser aux stéréotypes de genre ?

J’ai d’abord vu ces stéréotypes fonctionner dans le réel et notamment dans la publicité. Avant l’université, j’ai travaillé pour plusieurs instituts d’études, TNS à Paris, puis Ipsos et l’Ifop à Toronto sur des campagnes - notamment pour L’Oréal - avec des modèles féminins très idéalisés. À Toronto, une rencontre avec le réalisateur australien Tim Piper a été décisive. Sa campagne lancée en 2004 pour la marque Dove « Keep beauty real », représentant des femmes authentiques et une beauté diversifiée, à l’opposé des stéréotypes utilisées en publicités, a été un déclic : je me suis mise à questionner l’effet de ces images sur le bien-être des femmes. Aujourd’hui, je prolonge ce fil dans le numérique : l’affaire de la ministre IA en Albanie, baptisée “Diella”, m’a frappée parce que le débat a oublié une évidence, le choix d’un nom féminin pour cette IA, et ce détail révèle la persistance de nos biais.

Pourquoi “Diella” vous a fait réagir ?

Diella est présentée comme une ministre virtuelle chargée de sécuriser les marchés publics et de réduire la corruption dans l’attribution des contrats. J’ai vu un emballement sur le fait qu’une IA entre au gouvernement, ce qui, évidemment, pose déjà de vraies questions politiques et démocratiques, mais quasiment personne ne relevait le genre de cette ministre. J’ai fait une revue de presse à l’international : cette dimension passait comme si elle allait de soi. Or c’est justement ça, le problème : c’est invisible, donc normal.

Quel lien faites-vous entre la publicité genrée et la féminisation des IA, comme “Diella” en Albanie ?

On retrouve la même logique : féminiser pour rendre plus acceptable. Dans la publicité, certains codes fonctionnent parce qu’ils activent des stéréotypes. L’IA est perçue comme compétente mais froide. Et, dans nos stéréotypes sociaux, la féminité est associée à la chaleur, à l’écoute, au soin. Donc injecter du féminin, c’est augmenter l’acceptabilité dans une logique d’adoption. Donner une voix, un prénom et un visage féminins a pour objectif d’augmenter la confiance et l’adoption des outils ou produits proposés.

Quels risques voyez-vous à cette féminisation des interfaces ?

J’y vois trois grands risques. D’abord la manipulation : si une interface féminisée paraît plus chaleureuse, on lui fait plus facilement confiance, et cette confiance peut être exploitée au niveau commercial, politique, organisationnel. Ensuite le renforcement des stéréotypes : on associe la femme à la docilité, à la serviabilité, à la vertu, à l’incorruptibilité, bref, une forme de sexisme bienveillant. Enfin l’objectification : il ne s’agit plus d’une femme comparée à une machine, c’est une femme qui devient machine, elle est programmable, disponible, toujours polie et toujours là.

Vos résultats de recherche sur les robots féminins vont dans ce sens ?

Oui. Dans nos travaux, on observe que les robots féminins sont perçus comme plus humains et dotés de qualités humaines positives, ce qui peut conduire à des attitudes plus favorables envers les solutions d’IA féminines. Autrement dit, la féminisation devient une technologie sociale d’humanisation. Ce que je recommande, c’est d’arrêter de féminiser, mais surtout d’arrêter d’humaniser l’IA. Il faut présenter l’IA comme une entité non humaine, non genrée. Si une voix est nécessaire, qu’elle reste clairement artificielle. Il faut être totalement transparent sur le fait qu’on interagit avec une machine.

Sur quoi portera la suite de vos travaux ?

Je travaille sur la question de l’abus des robots sociaux, la manière dont on perçoit et juge la maltraitance de robots en interaction avec des humains et l’empathie que cela suscite. Et je continue aussi à explorer la manipulation possible via des interfaces d’IA genrées.

 

Propos recueillis par Valérie Ravinet

ITW tech & inno

Les interviews d’experts et d’expertes qui permettent de comprendre comment l’intelligence artificielle et l’innovation transforment le monde du travail. Dialogue social, droit, formation, égalité femmes-hommes, santé mentale, métiers : chaque entretien éclaire un enjeu clé des révolutions technologiques.

Notre actu dans votre inbox

Restez informés de toute l’actu
& inspirez-vous au quotidien