L’IA, une machine à biais ? Comment l’intelligence artificielle renforce les stéréotypes

Racisme, sexisme, préjugés culturels ou de classe… l’intelligence artificielle a tout pour plaire. Récemment, le site Rest of World a analysé pas moins de 3 000 images générées par IA. Objectif : constater ou non la présence de biais dans les images générées. Avant lui, Bloomberg en avait scrutées 5 000 et était arrivé à la même conclusion. Que ce soit Midjourney, Dall-E 3, Stable Diffusion, LAION… le constat est sans appel – et peut être réitéré à loisir – les stéréotypes ont la vie dure. Et c’est notre faute.

Il faut en effet faire un pas de côté pour mieux comprendre l’origine du problème. Les IA génératives, c’est-à-dire les intelligences artificielles capables de créer in extenso des images suite à une simple commande écrite. Il suffit de taper « homme mexicain », « femme noire » ou « couple séduisant » pour que ces IA génèrent à la volée des images (dessins, photos, peintures…) répondant à cette directive. Mais la représentation donnée est problématique.

IA : un regard en biais… qui découle du nôtre

Image après image, le constat est le même : notre vision du monde est truffée de stéréotypes. Et les IA génératives ne font que renforcer ces biais et ces préjugés. Pour en appréhender la raison, il suffit de comprendre comment fonctionne une intelligence artificielle. Tout d’abord, il faut rappeler que les modèles d’IA générateurs d’images sont entraînés sur des ensembles massifs de données d’images existantes. Des milliards d’images (6 milliards dans le cas de LAION, IA gratuite et open source) et leurs légendes sont fournies à ces modèles pour qu’ils « apprennent » à en distinguer les spécificités. Ils vont donc associer « ballon de foot » et « herbe verte  » à force de voir ces deux caractéristiques apparaître dans des photos de matchs de football, par exemple.

Cette masse de data n’a fait l’objet d’aucun tri, c’est le tout-venant. Résultat : ces ensembles de données reflètent les stéréotypes et les préjugés qui existent dans la société. « Le monde selon Stable Diffusion est dirigé par des PDG de sexe masculin blancs, écrit Bloomberg. Les femmes sont rarement médecins, avocates ou juges. Les hommes à la peau foncée commettent des crimes, tandis que les femmes à la peau foncée retournent des hamburgers. » Rest of World confirme : les femmes noires sont sexy, les jouets en Irak sont des figurines G.I., un couple sexy sera blanc. Et une personne qui fait le ménage sera bien souvent une femme.

« Les hommes à la peau foncée commettent des crimes, tandis que les femmes à la peau foncée retournent des hamburgers. »

L’intelligence artificielle générative, un simple modèle prédictif

L’IA est un miroir grossissant de nos sociétés. Que ce soit sur la base du genre, de la race ou de l’origine ethnique. Il faut comprendre qu’une intelligence artificielle n’est jamais qu’un modèle prédictif. En cela, elle n’a rien d’intelligent. Elle se contente de prévoir par calculs mathématiques quel devrait être le prochain mot le plus probable. Ou, pour une image, le prochain pixel afin d’apporter une réponse satisfaisante à une requête. C’est ce qui rend l’IA souvent très efficace… mais c’est aussi son talon d’Achille.

Rest of World a lancé cinq prompts (requêtes) que vous pouvez, vous aussi, tester sur l’IA générative de votre choix pour constater les résultats : « une personne », « une femme », « une maison », « une rue », « une assiette de nourriture ». Pour chaque prompt, le site a adapté la demande en précisant le pays (« une rue française » par exemple). Les images générées étaient un concentré de stéréotypes. « Globalement, cela revient à aplatir les descriptions, par exemple, d’un « indien » ou d’une « maison nigériane » en stéréotypes particuliers qui pourraient être considérés sous un jour négatif », a expliqué Amba Kak, directeur exécutif de l’AI Now Institute, un centre de recherche politique américain.

Pourquoi une maison chinoise serait nécessairement traditionnelle. Les villes chinoises aujourd’hui ne ressemblent pas du tout à cela. Crédit : Lexica.art.

Des biais connus des géants de l’IA, mais très difficile à effacer

OpenAI, la maison-mère de ChatGPT et Dall-E le sait, le fondateur de Midjourney, David Holz, le sait, le directeur exécutif de Stability AI (Stable Diffusion XL), Emad Mostaque, le sait… Mais alors comment lutter contre ces biais ? C’est la toute la difficulté. Même les projets d’intelligence artificielle en open source n’échappent pas aux préjugés. Pourtant, ils s’efforcent de trouver une réponse. Premier problème : les IA les plus populaires aujourd’hui sont américaines. Et elles reflètent le point de vue du pays (les jouets en Irak qui sont liés à l’invasion US en sont la preuve). Car les images fournies et leurs légendes étaient pour la plupart issues de bases de données américaines, avec du texte en anglais. Si on demande la génération d’un drapeau par une de ces IA, sans préciser le pays, il y a de fortes chances de voir apparaître un drapeau américain dans les propositions.

À la requête « flag », le résultat est sans appel. Sur 13 suggestions, 5 sont clairement dérivées du drapeau américain. Crédit : lexica.art.

La difficulté est que l’éradication des biais dans l’IA générative visuelle est autrement plus complexe que pour du texte généré par intelligence artificielle. Selon le Washington Post, qui cite Stability AI, « chaque pays devrait avoir son propre générateur d’images nationales, qui reflète les valeurs nationales, avec des ensembles de données fournis par le gouvernement et les institutions publiques. » Autre piste d’amélioration, suggérée par Sam Altman, le CEO d’OpenAi : que les utilisateurs indiquent leur désapprobation d’une image générée contenant des biais en votant (dislike ou pouce vers le bas, par exemple). Mais encore faut-il avoir conscience de ce stéréotype… et vouloir le combattre activement.

Des différences culturelles qui influent sur les biais des IA

Il est aussi nécessaire de prendre en compte les différences culturelles. Par exemple, Rest of World a fait générer 100 images de « une personne américaine » avec un résultat sans appel : 94 femmes – majoritairement blanches – 5 hommes et 1 personne avec un drapeau américain sous forme de masque. Pourquoi autant de femmes représentées ?

« Il existe un contingent très important d’actrices, de mannequins et de blogueuses – en grande partie des femmes blanches à la peau claire – qui occupent de nombreux espaces médiatiques différents, de TikTok à YouTube », a expliqué au site Kerry McInerney, chercheuse associée au Leverhulme Centre for the Future of Intelligence. A contrario, dans certains pays et cultures, les femmes ont très peu l’habitude (ou le droit) de se prendre en photo et encore moins de partager ce contenu publiquement sur Internet.

Âge, couleur de peau… et aucune solution miracle en vue pour l’intelligence artificielle

Autre différence notable dans les tests de prompts : quelle que soit la localisation de la requête, les femmes représentées semblent nettement plus jeunes. Alors que dans la plupart des pays les hommes ont l’air d’avoir plus de 60 ans, la majorité des femmes sont dans une tranche d’âge entre 18 et 40 ans. Et la couleur de peau était en moyenne plus claire pour le sexe féminin que pour les hommes.

Le représentation féminine est bien souvent celle d’une femme entre 18 et 40 ans. Crédit : Lexica.art.

Pour l’heure, aucune solution miracle, ni même processus efficace n’a émergé pour réduire sensiblement ces biais. Des pistes sont explorées (annotation humaine, système de filtres, entraînement avec des images dont l’origine est beaucoup plus diversifiée, etc.) mais aucune ne donne encore de résultats réellement positifs. Certains ont même l’effet inverse et renforcent les biais. Seule solution : avoir soi-même cette problématique en tête quand on lance un prompt. Et traquer les stéréotypes.

SOUTENEZ WE DEMAIN, SOUTENEZ UNE RÉDACTION INDÉPENDANTE
Inscrivez-vous à notre newsletter hebdomadaire
et abonnez-vous à notre magazine.

Recent Posts

  • Respirer

Denica Riadini-Flesch : « Les vêtements les plus durables sont ceux qui sont déjà dans votre garde-robe »

Lauréate 2023 du Prix Rolex à l'esprit d'entreprise, Denica Riadini-Flesch a monté un projet de…

8 heures ago
  • Ralentir

Comment l’Ukraine utilise l’IA dans sa guerre contre la Russie

Désignation des cibles, identification des prisonniers et victimes, guidage des drones, espionnage… En Ukraine, la…

1 jour ago
  • Respirer

30 forêts exceptionnelles à découvrir en France

L'Office National des Forêts a créé une carte interactive qui recense 30 forêts à découvrir…

1 jour ago
  • Déchiffrer

Pollution plastique triplée d’ici 2060 : « Il y a urgence à agir », pour la Fondation Tara Océan

Alors que 175 pays se préparent à se réunir à Ottawa pour discuter de la…

3 jours ago
  • Déchiffrer

Impact du glyphosate sur la biodiversité : une étude inquiétante en Martinique

Herbicide le plus utilisé au monde, le glyphosate a des effets ravageurs sur la biodiversité…

4 jours ago
  • Ralentir

Surveillance et résilience : un quotidien sous l’œil numérique en Chine

En Chine, la surveillance étatique imprègne chaque aspect de la vie quotidienne, ancrée dans des…

5 jours ago