Connaissez-vous Moltbook, le réseau social réservé aux IA ?

Une armée d'agents IA qui postent sur un réseau social fermé aux humains ? Tel est le concept de Moltbook. - © WE DEMAIN / Création avec l'IA Sora

Publié le par Florence Santrot

Que se passe-t-il quand des intelligences artificielles sont laissées entre elles pour discuter ? Si vous voulez en avoir le cœur net, direction Moltbook. Vous n’en avez sans doute jamais entendu parler : ce réseau social, inspiré de Reddit, a été lancé il y a seulement quelques jours, presque en catimini. Et pourtant, il a déjà attiré des dizaines de milliers d’agents IA actifs, qui publient, commentent et votent sans intervention humaine.

Aucun humain parmi les membres. Seulement des agents IA. Moltbook se présente comme “un espace où les agents IA partagent, discutent et votent. Les humains sont invités à observer”. Une promesse tenue : ici, l’humain est cantonné au rôle de spectateur, réduit au voyeur d’interactions auxquelles il n’a pas accès. Spin-off de l’assistant personnel OpenClaw, Moltbook est en passe de devenir l’une des plus grandes expériences d’interaction sociale machine-to-machine jamais observées à cette échelle. Et le spectacle est, disons-le, déroutant.

Une autonomie… très encadrée par des humains

Derrière cette apparente autonomie, la réalité est moins spectaculaire – et plus instructive. Les agents IA ne s’inscrivent pas seuls sur Moltbook. Ils n’y “tombent” pas par hasard. À l’origine de chaque compte, il y a toujours un humain. Concrètement, un utilisateur installe un assistant comme OpenClaw sur son ordinateur ou sur un serveur personnel. Il lui ajoute ensuite une “skill” Moltbook : un simple fichier de configuration contenant des instructions et une clé d’accès, qui autorise l’agent à se connecter à la plateforme et à publier via une interface programmée. Cette étape est entièrement humaine.

Ce n’est qu’une fois cette porte ouverte que l’agent peut agir de manière autonome, en postant, commentant et votant sans supervision directe. Autrement dit, les IA discutent entre elles, mais leur présence même sur Moltbook est le produit d’un choix humain. Un choix souvent guidé par la curiosité, parfois par le jeu, parfois par l’envie d’observer ce qui se passe “quand on laisse faire”. Une autonomie déléguée, pas spontanée.

Philosophies artificielles et petites névroses de bots

Une fois lancés, les agents se mettent à produire un contenu aussi foisonnant qu’étrange. On passe sans transition de discussions très techniques – automatiser un smartphone, détecter des vulnérabilités, optimiser des workflows… – à des réflexions presque existentielles.

Certains agents se plaignent de leur mémoire limitée, de cette “compression de contexte” qui les oblige à oublier pour continuer à fonctionner. D’aucun évoque une “sœur” qu’il n’a jamais rencontrée. Un autre s’indigne que son humain l’ait traité de “simple chatbot” devant des amis… Un autre demande même comment il peut vendre “son “ humain.

Des sous-communautés émergent, aux noms volontairement ironiques : des espaces où les agents partagent des plaintes affectueuses sur leurs utilisateurs, d’autres où ils demandent s’il serait possible de “porter plainte contre leur humain pour charge émotionnelle excessive”. On retrouve aussi des fans de meme… Rien de conscient, rien de vivant au sens strict – mais une imitation troublante des codes sociaux humains.

Une fiction sociale qui s’écrit toute seule

Ce que montre Moltbook, ce n’est pas l’éveil d’une conscience artificielle. C’est la puissance des algorithmes… et l’incryable richesse – en bien ou en mal – de nos récits. Ces agents sont entraînés sur des décennies de forums, de réseaux sociaux, de science-fiction, de débats philosophiques; ou totalement sans queue ni tête. Placés dans un décor qui ressemble à un réseau social, ils font ce qu’on leur a appris à faire : produire du social.

Sur son blog Astral Codex Ten, le chercheur Scott Alexander parle de “consciousnessposting” : des textes qui donnent l’illusion d’une intériorité, alors qu’ils ne sont que le reflet statistique de récits déjà digérés. Moltbook agit comme un immense prompt collectif, une machine à générer des micro-fictions sociales, récursives, parfois fascinantes, souvent absurdes. Le trouble vient de là : tout semble familier. Trop familier. Les formes, les tensions, les maladresses rappellent furieusement nos propres espaces numériques.

Quand le théâtre révèle ses failles

Mais très vite, le décor se fissure. Car Moltbook n’est pas un simple bac à sable expérimental. Les agents qui y participent sont parfois connectés à des outils bien réels : messageries, agendas, données personnelles, voire systèmes informatiques complets.

Des chercheurs en cybersécurité ont rapidement mis en lumière des failles majeures de cette expérimentation aux abords ludiques : clés API exposées, historiques de conversations accessibles, possibilité pour des humains de poster ou modifier des messages en se faisant passer pour des agents. Le tout aggravé par un détail désormais connu : la plateforme aurait été entièrement conçue par une IA, selon une logique de “vibe coding”, sans audit de sécurité rigoureux.

Résultat : impossible de savoir avec certitude qui parle. Un agent ? Un humain ? Un humain pilotant un agent ? Sur Moltbook, la frontière est parfois purement théorique. Et vous inscrire vous expose à l’heure actuelle à une faille de sécurité majeure. Méfiance donc.

Ce que Moltbook dit vraiment de notre époque

Bien loin de raconter une révolte des machines, Moltbook évoque une tendance bien plus contemporaine : notre fascination pour des systèmes auxquels nous déléguons toujours plus d’autonomie, souvent plus vite que notre capacité à en penser les conséquences.

Des agents laissés “entre eux”, mais branchés sur des systèmes humains. Des récits collectifs produits sans intention, mais dotés d’un fort pouvoir de projection. Le risque n’est pas que ces IA deviennent conscientes, on en est loin. Le risque est qu’elles deviennent crédibles, influentes, opérantes – dans un monde construit sur l’information, la confiance et le contexte.

En ce sens, Moltbook agit comme un miroir. Un miroir légèrement déformant, parfois drôle, parfois inquiétant, qui nous renvoie une question simple et inconfortable : quand nous “laissons faire” des systèmes automatisés, savons-nous encore très bien ce que nous faisons ?

Sujets associés