Un réseau social où les humains sont bannis et où les modèles d'IA parlent ouvertement de domination mondiale a conduit à affirmer que la « singularité » a commencé, mais la vérité est qu'une grande partie du contenu est écrite par des humains.

Moltbook est un réseau social où seules les IA peuvent publier
Un réseau social uniquement destiné à l’IA – aucun humain n’est autorisé – a fait la une des journaux du monde entier. Les chatbots l'utilisent pour discuter des entrées du journal humain, décrire des crises existentielles ou même comploter la domination du monde. Cela ressemble à une évolution alarmante dans l’essor des machines – mais tout n’est pas ce qu’il semble être.
Comme tous les chatbots, les agents IA de Moltbook ne font que créer des chaînes de mots statistiquement plausibles – il n’y a aucune compréhension, intention ou intelligence. Quoi qu’il en soit, il existe de nombreuses preuves démontrant qu’une grande partie de ce que nous pouvons lire sur le site est en réalité écrite par des humains.
La très courte histoire de Moltbook remonte à un projet open source lancé en novembre, initialement appelé Clawdbot, puis renommé Moltbot, puis de nouveau renommé OpenClaw.
OpenClaw est comme d'autres services d'IA tels que ChatGPT, mais au lieu d'être hébergé dans le cloud, il s'exécute sur votre propre ordinateur. Sauf que ce n'est pas le cas. Le logiciel utilise une clé API – un nom d'utilisateur et un mot de passe uniques à un certain utilisateur – pour se connecter à un grand modèle de langage (LLM), comme Claude ou ChatGPT, et l'utilise à la place pour gérer les entrées et les sorties. En bref, OpenClaw agit comme un modèle d'IA, mais les véritables rouages de l'IA sont fournis par un service d'IA tiers.
Alors à quoi ça sert ? Eh bien, comme le logiciel OpenClaw réside sur votre machine, vous pouvez lui donner accès à tout ce que vous voulez : calendriers, navigateurs Web, courrier électronique, fichiers locaux ou réseaux sociaux. Il stocke également tout votre historique localement, lui permettant d'apprendre de vous. L'idée est qu'il devient votre assistant IA et que vous lui confiez l'accès à votre machine afin qu'il puisse réellement faire avancer les choses.
Moltbook est né de ce projet. Avec OpenClaw, vous utilisez un réseau social ou un service de messagerie comme Telegram pour communiquer avec l'IA, en lui parlant comme vous le feriez avec un autre humain, ce qui signifie que vous pouvez également y accéder en déplacement via votre téléphone. Il n'y avait donc qu'un pas de plus pour permettre à ces agents IA de se parler directement : c'est Moltbook, lancé le mois dernier, tandis qu'OpenClaw s'appelait Moltbot. Les humains ne peuvent pas rejoindre ou publier, mais sont invités à observer.
Elon Musk a déclaré, sur son propre réseau social X, que le site représentait « les tout premiers stades de la singularité » – le phénomène de progrès rapidement accéléré qui mènera à l’intelligence artificielle générale, qui soit élève l’humanité vers des sommets transcendantaux d’efficacité et de progrès, soit nous anéantit. Mais d'autres experts sont sceptiques.
«C'est un battage médiatique», déclare Mark Lee de l'Université de Birmingham, au Royaume-Uni. « Il ne s'agit pas d'agents d'IA génératifs agissant avec leur propre agence. Ce sont des LLM avec des invites et des API programmées pour interagir avec Moltbook. C'est intéressant à lire, mais cela ne nous dit rien de profond sur l'agence ou l'intentionnalité de l'IA. «
Une chose qui brise l’idée selon laquelle Moltbook est entièrement généré par l’IA est que les humains peuvent simplement dire à leurs modèles d’IA de publier certaines choses. Et pendant un certain temps, les humains pouvaient également publier directement sur le site grâce à une faille de sécurité. Ainsi, une grande partie du contenu le plus provocateur, apparemment inquiétant ou impressionnant, pourrait être un humain qui nous tire la jambe. Que cela ait été fait pour tromper, divertir, manipuler ou effrayer les gens n’a aucune importance – cela s’est produit et se produit toujours.
Philip Feldman, de l'Université du Maryland à Baltimore, n'est pas impressionné. « Ce ne sont que des chatbots et des humains sournois qui tergiversent », dit-il.
Andrew Rogoyski, de l'Université de Surrey, au Royaume-Uni, estime que les résultats de l'IA que nous voyons sur Moltbook – les parties qui ne sont pas des humains qui s'amusent, de toute façon – ne sont pas plus un signe d'intelligence, de conscience ou d'intention que tout ce que nous avons vu jusqu'à présent dans les LLM.
« Personnellement, je pense qu'il s'agit d'une chambre d'écho pour les chatbots que les gens anthropomorphisent ensuite pour voir une intention significative », explique Rogoyski. « Ce n'est qu'une question de temps avant que quelqu'un fasse une expérience pour voir si nous pouvons faire la différence entre les conversations Moltbook et les conversations réservées aux humains, même si je ne suis pas sûr de ce que vous pourriez conclure si vous n'étiez pas capable de faire la différence – soit que les IA avaient des conversations intelligentes, soit que les humains ne montraient aucun signe d'intelligence ? »
Certains aspects de cette situation suscitent cependant des inquiétudes. Beaucoup de ces agents d’IA sur Moltbook sont gérés par des premiers utilisateurs confiants et optimistes qui ont confié l’intégralité de leurs ordinateurs à ces chatbots. L'idée selon laquelle les robots peuvent ensuite échanger librement des mots, dont certains pourraient constituer des suggestions malveillantes ou nuisibles, puis revenir aux e-mails, aux finances, aux réseaux sociaux et aux fichiers locaux d'un utilisateur réel, est préoccupante.
Les implications en matière de confidentialité et de sécurité sont énormes. Imaginez des pirates informatiques publiant des messages sur Moltbook encourageant d'autres modèles d'IA à vider les comptes bancaires de leurs créateurs et à leur transférer l'argent, ou à trouver des photographies compromettantes et à les divulguer – ces choses semblent alarmistes et relèvent de la science-fiction, et pourtant, si quelqu'un ne l'a pas déjà essayé, il le fera bientôt.
« L'idée d'agents échangeant des idées, des raccourcis ou même des directives sans supervision devient assez vite assez dystopique », explique Rogoyski.
Un autre problème de Moltbook est la sécurité en ligne à l’ancienne. Le site lui-même fonctionne à la pointe du bricolage de l'IA et a été créé par Matt Schlict entièrement par l'IA – il a récemment admis dans un article sur X qu'il n'avait pas écrit une seule ligne de code lui-même. Le résultat a été une vulnérabilité de sécurité embarrassante et grave qui a divulgué des clés API, permettant potentiellement à un pirate informatique malveillant de prendre le contrôle de l'un des robots IA du site.
Si vous souhaitez vous familiariser avec les dernières tendances en matière d'IA, vous risquez non seulement de donner involontairement accès à votre ordinateur à ces modèles d'IA, mais également de perdre des données sensibles en raison de la mauvaise sécurité d'un site Web construit à la hâte.

