Inventer  > Quand l’intelligence artificielle mesure la beauté humaine

Written by 11 h 36 min Inventer • 13 Comments

Quand l’intelligence artificielle mesure la beauté humaine

L’intelligence artificielle séduit, étonne, inquiète… Et lorsqu’elle s’attaque à la plus humaine et la plus subjective des appréciations – les critères de beauté – elle interpelle forcément. Le beau, une affaire d’algorithmes ?

Le 26/08/2021 par Cyril Fiévet
I.A
(Crédit : Mads Perch/Getty Images)
(Crédit : Mads Perch/Getty Images)

Je ne suis pas trop moche. Ce n’est pas moi qui le dis, ni ma tendre mère, ni même la femme de ma vie. Non, c’est une intelligence artificielle qui le dit. Elle me l’assure, mon « score de beauté » est de 7,2 sur 10. Je m’en sors bien. En quelques minutes passées sur un site Web, en face de ma webcam, un logiciel a analysé mon visage. Il en a déduit, presque instantanément et avec un « taux de confiance de 100  % », que j’étais un homme, que j’avais entre 52 et 55 ans (j’en ai 53). Et que j’avais « l’air triste » (en plein confinement solitaire et souffrant du Covid-19 depuis plus de deux mois, c’est probable). L’algorithme a finalement conclu que j’étais « normal à 92  % ».

Le site en question s’appelle « How normal am I ? » (« À quel point suis-je normal ? »). Il ne résulte pas d’une pirouette marketing d’une marque de cosmétiques, mais s’inscrit dans un vaste projet de recherche européen, Sherpa. Lancé en 2020 et impliquant onze partenaires dans six pays européens, le projet vise à « mieux comprendre les conséquences des systèmes d’information intelligents, résultants de l’intelligence artificielle et du big data, sur les plans de l’éthique et des droits de l’homme »

Cet article a initialement été publié dans WE DEMAIN n° 33, paru en février 2021. Un numéro toujours disponible sur notre boutique en ligne.

Normalité de l’intelligence artificielle

« How normal am I ? » a été créé par le Néerlandais Tijmen Schep, artiste et concepteur de systèmes numériques respectant la vie privée. Ravi mais surpris du succès de son site – deux semaines après son lancement fin septembre  2020, plus de 100 000 personnes y avaient déjà testé leur visage –, il met en garde contre les effets pervers de systèmes qui nous jugent à notre insu. Imposant une sorte de « normalité artificielle ». 

Et de souligner  :  »Si vous obtenez un score de beauté de 6,5, est-ce bon ou mauvais ? Pour le savoir, vos résultats sont comparés aux scores des personnes qui vous ont précédé. Vous pouvez ainsi savoir si vous êtes dans la moyenne ou non. C’est la même chose qui se produit aujourd’hui, avec des systèmes d’IA [intelligence artificielle] qui nous comparent les uns aux autres. Or pour un algorithme, ‘normal’ ne peut être défini que mathématiquement, ce qui induit un glissement entre ‘être normal’ et être juste ‘moyen’. »

Le point est marqué. Mais il demeure que, bon ou mauvais, le « score de beauté » que vous attribue une machine est troublant en soi.

À lire aussi : Kevin Kelly : “La peur des IA et des robots nous rend bêtes”

Les biais du beau

L’idée n’est pas nouvelle. En 2016, un concours international de beauté pas comme les autres, Beauty.ai, défrayait la chronique et engendrait une vive polémique. Son ambition  : laisser des intelligences artificielles désigner « les personnes les plus attirantes » parmi plus de 6 000 photos de visages envoyés par les internautes. Le problème ? Sur les 44 plus « belles » personnes du palmarès final, 37 étaient blanches, une seule avait la peau foncée (alors que beaucoup de participants émanaient d’Inde ou de pays africains). Allons bon. Même une IA peut donc être raciste ?

À l’époque, les organisateurs s’avouaient surpris des résultats. Et expliquaient que le problème ne venait pas tant des algorithmes que des bases d’images utilisées pour les entrainer. « Si vous n’avez pas beaucoup de personnes de couleur dans les jeux de données initiaux, vous risquez d’avoir des résultats biaisés », concédait Alex Zhavoronkov, responsable scientifique de Beauty.ai, dans The Guardian.

Le journal résumait bien la raison du fiasco  : « Bien que l’entreprise n’ait pas construit d’algorithme de façon à considérer la peau claire comme un signe de beauté, les données utilisées ont effectivement conduit les robots-juges à cette conclusion. »

Neutralité de l’intelligence artificielle ?

Lorsque l’on parle d’intelligence artificielle, la question du biais est cruciale. Au-delà des jugements de beauté, elle se posera d’ailleurs. Et sans doute de façon bien plus pernicieuse, dans d’innombrables cas où des systèmes « intelligents » auront à recommander un choix ou prendre une décision.

Qu’il s’agisse de recrutement, de médecine, d’automatisation des centres d’appels et de la relation client ou encore de détection de fraudes financières, comment garantir qu’une IA n’est pas biaisée, et comment s’en rendre compte quand elle l’est ?

La « neutralité » de l’intelligence artificielle est ainsi un sujet qui taraude la communauté scientifique depuis de nombreuses années. Les avis sont partagés mais certains experts doutent de notre aptitude à créer des systèmes garantis sans biais d’aucune sorte. « Nous devons briser le mythe d’une IA neutre et sans préjugés. Nous encodons nos biais dans tout ce que nous créons, qu’il s’agisse de livres, de poèmes ou d’intelligence artificielle », exprime avec force Ramesh Srinivasan, professeur en sciences de l’information à l’Université de Californie à Los Angeles, sur le site Big Think en mars  2020.

« Ces systèmes ‘intelligents’ influencent de plus en plus nos vies. Sur les sites de rencontres, vous risquez de n’être mis en relation qu’avec des personnes jugées aussi attirantes que vous », explique-t-il. 

Proportions idéales

Et pour revenir à la beauté, ce biais peut même être volontairement induit. Avec un zeste de provocation, Tijmen Schep a sciemment nourri et entrainé son logiciel de scoring… à partir des critères de beauté exprimés par des étudiants chinois. Du coup, mon score de beauté de 7,2 devient très relatif. Tout au plus aurais-je (peut-être) tendance à plaire aux jeunes Chinois(es).
Pour autant, il serait erroné d’en conclure qu’un logiciel mesurant la beauté est forcément inepte.

Des sculpteurs grecs de l’Antiquité aux scientifiques d’aujourd’hui, d’innombrables travaux ont tenté de mesurer, d’analyser, de théoriser la beauté. Dans son célèbre Homme de Vitruve, un dessin annoté, Léonard de Vinci montrait à la Renaissance les « proportions idéales » d’un corps humain, et décrivait précisément de véritables « canons de beauté » théoriques. « La distance du bas du menton au nez, et des racines des cheveux aux sourcils est la même, ainsi que l’oreille. Un tiers du visage », notait-il.

Plus près de nous, les études scientifiques cherchant à percer le secret de la beauté se sont multipliées. En 2000, une méta-analyse de onze études sur le sujet, menée à l’Université du Texas, conclut que « l’on s’accorde sur qui est ou n’est pas attirant, tant au sein d’une même culture que d’une culture à l’autre ».

À lire aussi : Une intelligence artificielle avait prédit l’épidémie avant tout le monde

La beauté liée au potentiel de reproduction

En 2005, un article intitulé « La biologie de la beauté faciale », publié dans l’International Journal of Cosmetic Science par Nick Neave et Bernhard Fink, chercheurs en anthropologie et sciences cognitives, enfonce le clou  : « Il était autrefois largement admis que les standards de beauté variaient arbitrairement. Des recherches récentes suggèrent, au contraire, que les avis des gens sur l’attrait d’un visage sont remarquablement cohérents, indépendamment de la race, de la nationalité ou de l’âge. »

Après avoir passé en revue les différents critères de beauté, comme la symétrie, les proportions ou la forme des lèvres, ils concluent  : « Il semble probable que les humains aient développé des mécanismes pour détecter et évaluer les indices honnêtes du potentiel de reproduction d’une personne. » De là en découlerait « l’attractivité physique », garante de la survie de notre espèce, en somme.

Plusieurs études, dont celle de Melissa Franklin (Université du Nouveau-Mexique) en 2010, confirment d’ailleurs que « les femmes préfèrent des visages mâles plus virils (mâchoires inférieures carrées, sourcils épais, pommettes prononcées) quand elles sont en période d’ovulation ». À l’inverse, elles sont plus attirées par des visages d’hommes plus ronds, plus « féminins » en dehors de cette période. Être un « beau mec », une simple histoire d’hormones féminines ?

À lire aussi : 10 innovations qui pourraient révolutionner le monde de demain

« Algorithmes naturels »

Tous ces travaux ont inévitablement conduit à la tentative de modéliser les caractéristiques de la beauté. C’est ce qu’ont par exemple fait en 2019 cinq chercheurs de l’Université Sidi-­Mohamed-Ben-Abdellah à Fès (Maroc). Ils proposent « une procédure automatique pour l’analyse de la beauté faciale », s’appuyant sur la détection de dix-neuf caractéristiques du visage, comparées aux « critères de beauté » qui se dégagent de plusieurs décennies de travaux universitaires.

Et ce n’est pas fini. Avec des outils d’apprentissage automatique nourris par des millions d’images, et de solides bases scientifiques pour « quantifier » la beauté, on peut s’attendre à des intelligences artificielles analysant la beauté humaine de façon de plus en plus ­convaincante.

On peut le regretter, s’en inquiéter, mais tout cela a le mérite de questionner notre rapport au beau. Il faut nous souvenir que ce n’est pas une intelligence artificielle qui a inventé le « délit de sale gueule ». Et que nos gouts personnels se conjuguent aussi à l’aune de mécanismes et d’automatismes codés dans notre ADN. D’un côté, l’IA présente le risque d’abriter (sournoisement) et d’amplifier (dangereusement) les pires biais humains. De l’autre, elle peut nous éclairer sur nos propres « algorithmes naturels », donc nous aider à comprendre les fondements de notre humanité, beauté incluse.

SOUTENEZ WE DEMAIN, SOUTENEZ UNE RÉDACTION INDÉPENDANTE
Inscrivez-vous à notre newsletter hebdomadaire
et abonnez-vous à notre magazine.

A lire aussi :