Le système se nomme "FakeCatcher". Ce détecteur de fausses vidéos serait capable d'identifier des vidéos modifiées, ou deepfake, avec un taux de précision de 96 % en quelques secondes.
Intel utilise la détection du rythme cardiaque sur le visage pour vérifier la véracité d'une vidéo. Crédit : Mihai Surdu / Shutterstock.
Partager la publication "Deepfake : Intel assure être capable de détecter les contrefaçons en temps réel"
Dès à présent, des sites sont capables d’intégrer, à l’aide d’une simple photo, le visage d’une personne sur le corps d’une autre dans un film pornographique. C’est ce qu’on appelle le « deepfake porn », de la pornographie non consensuelle… et créée de toutes pièces. Le résultat est encore très aléatoire, et parfois peu crédible. Mais l’intelligence artificielle (IA), capable de créer à la volée ces fausses images, progresse vite. Et laisse entrevoir un futur bien sombre.
Des amateurs de logiciels de retouches d’images s’amusent aussi à intégrer des personnalités – politiques, artistes, etc. – dans des situations fictives. Certaines de ces vidéos, particulièrement crédibles, pourraient un jour créer de vraies crises diplomatiques. Un message de Vladimir Poutine annonçant sa volonté d’envahir un des pays de l’OTAN, un ultimatum de Joe Biden contre la la Chine à propos de Taïwan, un discours de Jair Bolsonaro… tout devient possible et plausible. Pire, on commence à voir des deepfakes interactives. C’est-à-dire des cas de figure où vous avez l’impression de parler en visioconférence en temps réel à une personne alors que, derrière, se cache un autre individu qui usurpe cette identité et interagit avec vous comme si de rien n’était.
Lundi 14 novembre, Intel a dévoilé son outil FakeCatcher. Il s’agit d’un détecteur de vidéos modifiées et créées par des intelligences artificielles. Aujourd’hui, la qualité technologique de certains de ces fichiers est telle qu’il est impossible à l’œil nu de faire la différence entre une vidéo originale et une altérée par ordinateur. Mais ce premier détecteur de deepfake en temps réel est capable de faire la différence.
Intel affirme que sa technologie a un taux de précision de 96 %. Comment fonctionne-t-il ? En analysant le subtil « flux sanguin » dans les pixels d’une vidéo pour renvoyer des résultats en quelques millisecondes.
Concrètement, cette technique est appelée photopléthysmographie (PPG). C’est une technique optique non invasive qui détecte les variations du volume sanguin microvasculaire dans les tissus vivants (peau, yeux…). Lorsque le cœur pompe le sang, il va dans les veines, qui changent de couleur. La nature pulsatile du système circulatoire provoque ces réactions extrêmement subtiles et qui ne sont pas reproduites dans les deepfakes. En tout cas pas pour l’heure.
C’est Ilke Demir, chercheur chez Intel Labs, qui a conçu FakeCatcher. Il a travaillé en collaboration avec Umur Ciftci, un scientifique de l’Université de l’État de New York à Binghamton. « Vous ne pouvez pas le voir à l’œil nu, mais il est visible par calcul informatique », a déclaré Ilke Demir à VentureBeat. Et d’ajouter : « Le point d’or de ce que nous envisageons est d’avoir un ensemble de tous ces modèles d’IA, afin que nous puissions fournir un consensus algorithmique sur ce qui est faux et ce qui est réel. »
Cela sonne peut-être la fin des comptes TikTok de deepfakes liés à des personnalités comme les acteurs Tom Cruise (@deeptomcruise), Keanu Reeves ou encore Margot Robbie, comme vous pouvez le voir ci-dessous.
Le 7 février prochain à l'Acédémie du Climat à Paris, se tiendra une soirée autour…
Comment cohabiter avec les océans tout en prenant soin d'eux ? Chaque année, le concours international…
L'Observatoire des oiseaux de jardin dresse le bilan de 10 ans de sciences citoyennes. Et…
Les mobilités actives sont en nette progression depuis 2019. Les villes et territoires doivent maintenant…
Une PME de l'Yonne, Simon SAS, spécialisée dans la fabrication d'étuis souples, prouve que la…
Comment l'être humain s'adapte-t-il et résiste-t-il à des conditions météorologiques extrêmes ? Pour le savoir, l'expédition…