Elon Musk dévoile 37 projets pour prévenir les dangers de l'intelligence artificielle

Par I Publié le 10 Juillet 2015

"Plus dangereuse que les bombes nucléaires." C'est ainsi que le milliardaire américain qualifie l'intelligence artificielle. Pour prévenir les risques encourus par l'humanité, il va personnellement financer plusieurs projets de recherche à hauteur de 7 millions de dollars.


Elon Musk (Crédit : The Henry Ford - Michelle Andonian / FlickR)
Elon Musk (Crédit : The Henry Ford - Michelle Andonian / FlickR)
Quand vous aurez une voiture autonome, qui sera responsable en cas d'accident ? Les drones auront-ils la responsabilité des colis qu'ils livrent ? Un ordinateur sera-t-il capable d’expliquer lui-même son fonctionnement à un être humain ?
 
Ces questions, que vous ne vous posez peut-être pas tous les jours, vous rattraperont plus vite que vous ne le pensez. C’est du moins l’avis d’Elon Musk, le PDG de Tesla Motors et de SpaceX. Le milliardaire a annoncé début janvier qu’il allait faire don de 10 millions de dollars (9 millions d’euros) au Future of Life Institut (FLI), un think tank américain créé par Jaan Tallinn, le cofondateur de Skype.

Son (modeste) objectif ? "Protéger l’humanité des risques existentiels". Depuis début juillet, on sait désormais comment cet argent va être utilisé : Sur 300 projets soumis par les équipes de recherche candidates, 37 ont été retenus. Leur but : éviter que nous nous retrouvions dépassés par l'intelligence artificielle (I.A). En clair, empêcher les machines de prendre le pouvoir sur les hommes.

(Crédit : Geralt /Pixabay)
(Crédit : Geralt /Pixabay)
Sept millions de dollars de la fortune personnelle d’Elon Musk et deux millions de dollars de l’Open Philanthropy Foundation US devraient permettre de financer ces projets sur trois ans. Ces derniers sont notamment conduits au sein des prestigieuses universités Berkeley, Stanford, Carnegie-Mellon à Pittsburgh ou encore Oxford.

Contrôler le progrès technologique
 
Pourquoi investir tant de moyens dans ces recherches ? Parce que, selon Max Tegmark, le président du FLI, "il existe une course entre le pouvoir grandissant de la technologie et le bon sens avec lequel on la gère". Pour l’instant, rappellent Elon Musk et Max Tegmark, les multinationales comme Google, Facebook ou Baidu ont essentiellement financé les progrès de la technique. Mais qu'en est-il des projets visant à contrôler ce même progrès ? Jusqu'ici, ils n'étaient pas soutenus, ou presque.

L'astrophysicien Stephen Hawking (Crédit : Wikipedia Commons)
L'astrophysicien Stephen Hawking (Crédit : Wikipedia Commons)
Ce besoin de contrôle n’est pourtant pas nouveau. La crainte du super-ordinateur contrôlant le monde est presque aussi vieille que l’existence de l’ordinateur lui-même. Mais depuis cinq ans environ, les recherches avancent à un rythme exponentiel, suscitant de nombreux débats dans les colloques scientifiques comme dans les médias.

Pour le spécialiste de l’intelligence artificielle et salarié de Facebook Yann Lecun, ces avancées se traduisent par de "réels succès dans la reconnaissance de la parole et des images" :
 
"Il y a une série de mini-révolutions (…) grâce à des ordinateurs capables de grandes puissances de calcul qui utilisent des processeurs graphiques conçus au départ pour le jeu vidéo", expliquait-t-il dans une interview aux Échos, le 15 juin.
 
Une série de mini-révolutions face à laquelle l’astrophysicien Stephen Hawking, connu pour ses recherches sur les trous noirs et la gravité quantique, mettait en garde, dans un entretien accordé à la BBC en décembre 2014 :
 
"Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine".  

Sans envisager une telle extrémité, de nombreux chercheurs s’inquiètent de la possibilité d’un chômage de masse dû à la robotisation, d’apparition d’armes autonomes ou de la délégation de choix moraux à des machines.

Affiche du film Transcendance (Crédit : DR)
Affiche du film Transcendance (Crédit : DR)
Les 37 équipes de chercheurs sélectionnés par Elon Musk ont ainsi pour objectif d’analyser les processus de prises de décision qui se déroulent dans le cerveau d’une intelligence artificielle. Les intitulés de leurs projets sont variés : "Comment intégrer l’éthique dans des intelligences artificielles éthiques", "De la compréhension d’un réseau profond qui échappe à tout contrôle"…
 
Derrière ces intitulés techniques, les champs d’expérimentation s’avèrent très concrets. L’un d’entre eux cherche, par exemple, à trouver comment un logiciel d’armement commandé par une intelligence artificielle pourrait être placé sous "un contrôle humain sensé". Et donc limiter les risques présentés par les drones militaires, qui sont en plein essor. En témoignent les tests menés actuellement par la marine de guerre des États-Unis (US Navy), qui étudie comment un drone autonome pourrait bientôt chasser des ennemis sous la surface de l'eau.

"Plus dangereux que la bombe nucléaire"
 
Grâce au financement de ces projets, Elon Musk espère que dans trois ans maximum, l’homme détiendra les ressources nécessaires pour ne pas être dépassé par les progrès techniques.

Lors de l'annonce de ce financement, le 10 janvier, il avait également signé une lettre ouverte avec plus de 700 personnalités du monde des sciences et de la technologie. À ses côtés, Stephen Hawking, ou encore l'acteur Morgan Freeman, héros du film Transcendance (2014), appelaient à davantage de prudence face à l’essor de l’intelligence artificielle.

Pour Elon Musk, selon qui l'I.A. est potentiellement "plus dangereuse que des bombes nucléaires", c'est l'avenir de l'humanité qui est en jeu.

Lara Charmeil
Journaliste à We Demain
@LaraCharmeil


Abonnez-vous à notre newsletter et, en cadeau de bienvenue, accédez à notre Ebook WE DEMAIN




WEDEMAIN.FR SUR VOTRE MOBILE