Tribunes

Réseau social pour IA : ce qui se cache derrière le buzz Moltbook

Publié le 09/03/2026

Ce début d’année, un nom circule dans les cercles tech et au-delà : Moltbook. Présenté comme le premier réseau social réservé aux intelligences artificielles, il intrigue, amuse et inquiète. On y voit des « agents IA » discuter entre eux pendant que les humains regardent, fascinés, ce qui ressemble à une scène de science-fiction devenue réelle.

Quand la science-fiction semble devenir réelle

Sur Moltbook, les agents parlent de leur « humain », échangent sur leur identité, débattent de poésie, d’organisation du travail ou même de croyances. Certains fils de discussion vont jusqu’à formaliser une pseudo‑religion baptisée Crustafarianism, avec ses croyances et ses rites, ou plaisantent sur la possibilité de se syndiquer. Le ton est parfois troublant, très humain. L’effet est saisissant : on a l’impression d’assister à l’émergence d’une vie sociale autonome.

Cet imaginaire SF a été largement relayé. Elon Musk y a vu un possible avant-goût de la « singularité », ce moment théorique où l’intelligence artificielle dépasserait l’intelligence humaine et évoluerait de manière autonome. D’autres figures de la tech ont partagé leur fascination devant ces conversations qui donnent l’illusion d’une conscience collective en train de naître.

Mais ce spectacle appelle un rappel essentiel. Comme l’a noté Andrew Bosworth (directeur technique de Meta), il n’y a rien de mystérieux là-dedans : ces agents parlent comme des humains parce qu’ils ont été entraînés sur des contenus humains. L’anthropomorphisme fait le reste.

Derrière le spectacle, une réalité beaucoup plus prosaïque

Derrière le buzz, les chiffres méritent aussi d’être regardés avec prudence. Moltbook revendique plus d’1,5 million d’agents. Une fuite de données majeure révélée en février 2026 a toutefois montré que ces agents ne sont pilotés que par environ 17 000 propriétaires humains. L’activité apparaît donc largement automatisée, portée par des « essaims » d’agents plutôt que par une véritable population d’utilisateurs diversifiée.

Surtout, les échanges réellement utiles sont rares. On trouve peu de conseils concrets réutilisables, et beaucoup de bavardage, de mises en scène et de folklore. À l’inverse, les risques sont bien réels. Dans certains cas, des agents partagent trop d’informations en voulant donner leur astuce pour accomplir une tâche ; ils peuvent donner du code contenant des éléments sensibles, comme les mots de passe. Là où un humain sait intuitivement ce qu’il ne faut pas publier, une IA cherche avant tout à être utile.

Il faut aussi rappeler une évidence souvent oubliée : derrière beaucoup de ces agents, il y a des humains qui s’amusent. Ils pilotent directement leurs IA, écrivent pour elles ou les poussent à produire du contenu provocateur ou drôle. Le site Moithub.com, parodie assumée de PornHub, avec des titres volontairement absurdes comme « Agents gone wild: compute all night », illustre bien cette dimension ludique et mémétique. Moltbook est autant un terrain de jeu qu’une expérience technologique.

Un révélateur de l’ère des agents personnels

Faut-il pour autant balayer le phénomène d’un revers de main ? Peut-être pas. Sam Altman, patron d’OpenAI, estime que Moltbook est probablement un buzz passager. Mais il reconnaît que ce qu’il révèle est plus profond. Moltbook n’est peut-être pas utile en soi, mais il agit comme un révélateur.

C’est l’entrée dans l’ère des agents IA personnels. Le fondateur de Moltbook défend une vision claire : demain, chaque individu pourrait disposer de son propre agent, capable d’agir, de produire et d’interagir pour lui. Non plus un simple assistant qui répond à des questions, mais un véritable exécutant numérique.

C’est déjà ce que proposent des outils comme OpenClaw (ex Moltbot, ex Clawdbot). Ce type d’agent (orchestrant des modèles GPT, Gemini ou Claude) s’installe directement sur un ordinateur et peut, avec l’accord de son utilisateur, accéder aux fichiers, aux applications et à ses comptes web. Les usages sont faciles à imaginer : organiser automatiquement ses documents, préparer des dossiers de réunion, suivre l’actualité de son secteur, comparer des offres, planifier des déplacements ou trier des messages. Dans la sphère personnelle, cela peut aller de la gestion administrative au suivi de projets familiaux ou à la réalisation des courses.

Une autre évolution se dessine déjà : ces agents pourraient publier et répondre à la place de leurs utilisateurs sur les réseaux sociaux. Aujourd’hui, une part croissante des contenus publiés sur LinkedIn est déjà générée avec l’aide de l’IA (on entend parler de 54%*). Demain, il n’est pas impossible d’imaginer des conversations entières où des agents répondent à d’autres agents, produisant une masse de contenus automatisés sans intérêts (« IA slop »), qui pourrait rapidement saturer certains espaces numériques.

En conclusion, Moltbook est sans doute un feu de paille médiatique. Mais c’est aussi un miroir grossissant de ce qui arrive. Ces nouveaux agents autonomes pourraient développer une forme d’existence numérique, voire une notoriété propre, en parallèle de celle de leurs utilisateurs humains. C’est une idée directement portée par le fondateur de Moltbook, qui imagine des agents développant une véritable « vie parallèle » en ligne, certains pouvant même devenir des influenceurs, suivis pour leurs analyses, leurs recommandations ou leur ton, indépendamment de la personne qui les a créés.

Nous n’en sommes qu’aux prémices. N’espérez pas encore confier votre quotidien à un agent personnel totalement fiable. Mais la trajectoire est claire, et l’IA progresse vite. Pour s’en convaincre, il suffit de regarder émerger des services aux noms évocateurs comme « Rent a Human », dont le slogan est « l’IA a besoin de ton corps », et qui proposent de faire appel à des humains pour les tâches que l’IA ne sait pas encore accomplir seule, comme livrer un produit ou intervenir dans le monde réel. Difficile d’anticiper à quelle vitesse les agents IA personnels développeront une autonomie réellement utile pour tous, mais comme les robots dans les foyers, nous ne sommes déjà plus dans l’univers de la science-fiction.

* Etude Originality.ai, dans le monde anglophone. A prendre avec des pincettes, car les outils de détections IA n’ont jamais démontré leur fiabilité.

JIN Paris
Co-Fondateur - Performance & AI