Inventer  > Les algorithmes sont-il sexistes ?

Written by 17 h 02 min Inventer • 3 Comments

Les algorithmes sont-il sexistes ?

Les algorithmes semblent parfois faire preuve de sexisme. Un problème qui ne vient pas de la technologie en elle-même mais de la manière dont elle est conçue…

Le 08/03/2021 par Sofia Colla
algorithmes_sexistes
Les algorithmes reproduisent la réalité, en exhibant ses stéréotypes. (Crédit : Shutterstock)
Les algorithmes reproduisent la réalité, en exhibant ses stéréotypes. (Crédit : Shutterstock)

Sans toujours le savoir, en utilisant notre téléphone ou notre ordinateur, nous sommes sans cesse confrontés à des algorithmes. Or, ces derniers sont loin d’être neutres.

“Quand on tape ‘écolier’, on a des enfants qui vont à l’école, filles ou garçons. ‘Écolière’, on a également des jeunes filles en costume d’écolière, érotisées”, relève Isabelle Collet, informaticienne et professeure à l’Université de Genève, dans une interview à Heidi.News.

En cause : les algorithmes sont créés par des hommes, ils “apprennent” en fonction des données que nous leur soumettons. Si ces données sont biaisées, non représentatives des diversités, les algorithmes le seront aussi. Or, selon l’UNESCO, seuls 22 % des professionnels de l’IA à travers le monde sont des femmes. 

À lire aussi : 33 % de femmes dans le numérique : les solutions pour y remédier

L’IA, reflet des valeurs d’une société

“Comme toutes les technologies, l’intelligence artificielle reflétera les valeurs de ses créateurs”, explique Kate Crawford, co-directrice de l’AI Now Institute à l’Université de New York, citée par Euro News

“Les algorithmes se contentent de reproduire la réalité, mais ils ‘sur-typent’ la réalité. C’est-à-dire, à partir des données de l’existant qu’ils ont déjà, ils en fournissent une version plus stéréotypée”, détaille Isabelle Collet.

L’un des exemples les plus connus : celui d’Amazon qui avait automatisé son recrutement en 2018. L’intelligence artificielle s’était basée sur la manière dont l’entreprise recrutait les personnes. Les postes techniques étaient généralement occupés par des hommes et les hommes avaient aussi les plus longues carrières avec de meilleurs salaires. L’IA avait donc privilégié les CV d’hommes.

Autre exemple, mis en lumière par Joy Lisi Rankin, chercheuse sur la question du genre, de la race et du pouvoir dans l’IA à l’Institut AI Now de New York, pour Euro News  : “Facebook propose des annonces pour des emplois mieux payés aux hommes blancs, alors que les femmes et les personnes de couleur se voient proposer des annonces pour des emplois moins bien payés. Google, quant à lui, renvoie des résultats sexistes et pornographiques aux requêtes ‘filles noires’ ou ‘latinas’.” 

“La société a été très sexiste et très raciste et comme les algorithmes apprennent sur des données passées datant de plusieurs années – les nouvelles ne suffisant pas – ils sont forcément biaisés eux aussi”, explique au média Maddyness Aude Bernheim, chercheuse, co-fondatrice de l’association Wax Science qui lutte pour une science plus inclusive et co-autrice de L’Intelligence Artificielle, pas sans elles.

Ils sont les héritiers de notre histoire : ils ne sont pas plus sexistes que la société actuelle ne l’est.

Aude Bernheim

Mieux éduquer les algorithmes

Pourtant la première intelligence artificielle a été développée par une femme : Ada Lovelace, la première programmeuse de l’histoire, au milieu du XIXeme siècle. Mais aujourd’hui les femmes sont minoritaires dans le domaine. Cette inégalité se retrouve donc dans la conception des algorithmes. 

“Avant de coder sans biais, il faut faire prendre conscience aux gens qu’il y a des biais. C’est pour cette raison qu’il est essentiel de sensibiliser dans les écoles de code et les entreprises qui utilisent des codes comme les banques – pour allouer des crédits – ou dans les écoles d’ingénieur – pour recruter”, préconise Flore Vincent, co-autrice de L’Intelligence Artificielle, pas sans elles.

Une entrepreneuse et anthropologue française semble avoir trouvé une solution. Associée à un data scientist, Daphné Marnat lance ce 8 mars la start-up Unbias, qui propose un outil pour corriger les biais sexistes des algorithmes. Il s’agit d’une intelligence artificielle capable de détecter ces biais sexistes et de les remplacer par des mots ou des tournures de phrase moins discriminants. 

“Quand on prend le train par exemple, la SNCF nous parle à travers un robot sur la messagerie WhatsApp. Notre solution vise à ce qu’un logiciel comme celui-ci utilise un langage qui ait le moins de biais possible”, illustre la fondatrice au média Usine Nouvelle

L’entrepreneuse souhaiterait même aller plus loin : “Au-delà de détecter les biais dans les algorithmes, la technologie pourrait aider les humains à voir les biais qu’ils ne voient plus”, prévoit-elle. Le logiciel pourrait ainsi mettre en évidence les expressions considérées comme discriminantes, pour les entreprises ou les particuliers. 

Tags:

A lire aussi :

  • Tchikita, le premier magazine pour enfant anti-stéréotypes de genre

    Découvrir

    Tchikita, le premier magazine pour enfant anti-stéréotypes de genre

    Le magazine trimestriel Tchikita vise à déconstruire les stéréotypes de genre auprès des enfants de 4 à 7 ans. Une première dans la presse jeunesse.
  • Bien choisir sa contraception féminine ou masculine

    Découvrir

    Bien choisir sa contraception féminine ou masculine

    Pilule, stérilet ou préservatif sont les méthodes de contraception les plus proposées. Il existe toutefois des alternatives. Gaëlle Baldassari, fondatrice du mouvement Kiffe ton Cycle, organise un sommet digital pour éclairer nos choix.
  • Contraception masculine : où en est-on ?

    Découvrir

    Contraception masculine : où en est-on ?

    Boulocho, andro-switch, énanthate de testostérone… Avec ces méthodes expérimentales – et encore souvent artisanales –, des hommes reprennent le contrôle de leur fertilité. WE DEMAIN a infiltré le petit cercle des Français adeptes de la contraception masculine.