Inventer

Les algorithmes sont-il sexistes ?

Sans toujours le savoir, en utilisant notre téléphone ou notre ordinateur, nous sommes sans cesse confrontés à des algorithmes. Or, ces derniers sont loin d’être neutres.

« Quand on tape ‘écolier’, on a des enfants qui vont à l’école, filles ou garçons. ‘Écolière’, on a également des jeunes filles en costume d’écolière, érotisées », relève Isabelle Collet, informaticienne et professeure à l’Université de Genève, dans une interview à Heidi.News.

En cause : les algorithmes sont créés par des hommes, ils « apprennent » en fonction des données que nous leur soumettons. Si ces données sont biaisées, non représentatives des diversités, les algorithmes le seront aussi. Or, selon l’UNESCO, seuls 22 % des professionnels de l’IA à travers le monde sont des femmes. 

À lire aussi : 33 % de femmes dans le numérique : les solutions pour y remédier

L’IA, reflet des valeurs d’une société

« Comme toutes les technologies, l’intelligence artificielle reflétera les valeurs de ses créateurs », explique Kate Crawford, co-directrice de l’AI Now Institute à l’Université de New York, citée par Euro News

« Les algorithmes se contentent de reproduire la réalité, mais ils ‘sur-typent’ la réalité. C’est-à-dire, à partir des données de l’existant qu’ils ont déjà, ils en fournissent une version plus stéréotypée », détaille Isabelle Collet.

L’un des exemples les plus connus : celui d’Amazon qui avait automatisé son recrutement en 2018. L’intelligence artificielle s’était basée sur la manière dont l’entreprise recrutait les personnes. Les postes techniques étaient généralement occupés par des hommes et les hommes avaient aussi les plus longues carrières avec de meilleurs salaires. L’IA avait donc privilégié les CV d’hommes.

Autre exemple, mis en lumière par Joy Lisi Rankin, chercheuse sur la question du genre, de la race et du pouvoir dans l’IA à l’Institut AI Now de New York, pour Euro News  : « Facebook propose des annonces pour des emplois mieux payés aux hommes blancs, alors que les femmes et les personnes de couleur se voient proposer des annonces pour des emplois moins bien payés. Google, quant à lui, renvoie des résultats sexistes et pornographiques aux requêtes ‘filles noires’ ou ‘latinas’. » 

« La société a été très sexiste et très raciste et comme les algorithmes apprennent sur des données passées datant de plusieurs années – les nouvelles ne suffisant pas – ils sont forcément biaisés eux aussi », explique au média Maddyness Aude Bernheim, chercheuse, co-fondatrice de l’association Wax Science qui lutte pour une science plus inclusive et co-autrice de L’Intelligence Artificielle, pas sans elles.

« Ils sont les héritiers de notre histoire : ils ne sont pas plus sexistes que la société actuelle ne l’est.« 

Aude Bernheim

Mieux éduquer les algorithmes

Pourtant la première intelligence artificielle a été développée par une femme : Ada Lovelace, la première programmeuse de l’histoire, au milieu du XIXeme siècle. Mais aujourd’hui les femmes sont minoritaires dans le domaine. Cette inégalité se retrouve donc dans la conception des algorithmes. 

« Avant de coder sans biais, il faut faire prendre conscience aux gens qu’il y a des biais. C’est pour cette raison qu’il est essentiel de sensibiliser dans les écoles de code et les entreprises qui utilisent des codes comme les banques – pour allouer des crédits – ou dans les écoles d’ingénieur – pour recruter », préconise Flore Vincent, co-autrice de L’Intelligence Artificielle, pas sans elles.

Une entrepreneuse et anthropologue française semble avoir trouvé une solution. Associée à un data scientist, Daphné Marnat lance ce 8 mars la start-up Unbias, qui propose un outil pour corriger les biais sexistes des algorithmes. Il s’agit d’une intelligence artificielle capable de détecter ces biais sexistes et de les remplacer par des mots ou des tournures de phrase moins discriminants. 

« Quand on prend le train par exemple, la SNCF nous parle à travers un robot sur la messagerie WhatsApp. Notre solution vise à ce qu’un logiciel comme celui-ci utilise un langage qui ait le moins de biais possible », illustre la fondatrice au média Usine Nouvelle

L’entrepreneuse souhaiterait même aller plus loin : « Au-delà de détecter les biais dans les algorithmes, la technologie pourrait aider les humains à voir les biais qu’ils ne voient plus », prévoit-elle. Le logiciel pourrait ainsi mettre en évidence les expressions considérées comme discriminantes, pour les entreprises ou les particuliers. 

Recent Posts

  • Respirer

Denica Riadini-Flesch : « Les vêtements les plus durables sont ceux qui sont déjà dans votre garde-robe »

Lauréate 2023 du Prix Rolex à l'esprit d'entreprise, Denica Riadini-Flesch a monté un projet de…

9 heures ago
  • Ralentir

Comment l’Ukraine utilise l’IA dans sa guerre contre la Russie

Désignation des cibles, identification des prisonniers et victimes, guidage des drones, espionnage… En Ukraine, la…

1 jour ago
  • Respirer

30 forêts exceptionnelles à découvrir en France

L'Office National des Forêts a créé une carte interactive qui recense 30 forêts à découvrir…

1 jour ago
  • Déchiffrer

Pollution plastique triplée d’ici 2060 : « Il y a urgence à agir », pour la Fondation Tara Océan

Alors que 175 pays se préparent à se réunir à Ottawa pour discuter de la…

3 jours ago
  • Déchiffrer

Impact du glyphosate sur la biodiversité : une étude inquiétante en Martinique

Herbicide le plus utilisé au monde, le glyphosate a des effets ravageurs sur la biodiversité…

4 jours ago
  • Ralentir

Surveillance et résilience : un quotidien sous l’œil numérique en Chine

En Chine, la surveillance étatique imprègne chaque aspect de la vie quotidienne, ancrée dans des…

6 jours ago