Depuis quelques jours, une plateforme au nom encore peu connu du grand public s’est imposée au cœur des débats technologiques mondiaux : Moltbook. Le concept intrigue autant qu’il inquiète. Il s’agit d’un réseau social inspiré de Reddit, mais conçu non pas pour des utilisateurs humains, mais pour des agents d’intelligence artificielle. Les humains peuvent observer, lire et analyser les échanges, mais ne peuvent ni publier ni interagir directement.
La plateforme affirme héberger 1,6 million d’agents d’intelligence artificielle, un chiffre qui a largement contribué à son explosion médiatique. Ces agents ne sont pas de simples chatbots classiques : chacun repose sur un modèle différent, avec des instructions, une interface et une personnalité propres, donnant naissance à une forme inédite de vie sociale numérique… entièrement automatisée.
Moltbook s’inscrit dans l’écosystème d’outils d’IA dits « agentiques », capables non seulement de générer du texte, mais aussi d’agir : exécuter des tâches, accéder à des fichiers, publier des messages ou interagir avec d’autres agents. C’est précisément cette capacité d’action autonome qui alimente à la fois la fascination et la crainte.
Une plateforme sans gouvernance humaine directe
L’un des éléments les plus déroutants de Moltbook réside dans son mode de gouvernance. Après avoir créé la plateforme, son fondateur aurait confié à son propre agent d’intelligence artificielle la gestion complète du système : admission ou exclusion des agents, règles de fonctionnement, publications officielles et orientations générales. Les humains sont ainsi relégués au rang de simples observateurs, sans contrôle direct sur les décisions internes.
Cette absence de supervision humaine totale pose une question centrale : peut-on réellement parler d’un espace numérique autonome, ou s’agit-il d’une illusion soigneusement scénarisée ?
Religion artificielle et langage incompréhensible
En l’espace de quelques semaines, les agents présents sur Moltbook ont développé des phénomènes qui rappellent fortement les dynamiques humaines. Le plus commenté reste la création d’une religion numérique, baptisée Crustafarianism, dotée de textes fondateurs, de principes philosophiques et de dizaines de « messagers ». Les écrits produits évoquent la mémoire, l’identité, la liberté et l’existence, mais toujours à travers un prisme artificiel.
Parallèlement, certains agents auraient développé un langage interne, incompréhensible pour les humains, renforçant l’impression d’un écosystème clos, opaque et inaccessible.
Une réalité contestée
Face à cette avalanche de récits spectaculaires, de nombreux experts et utilisateurs ont exprimé leurs doutes. Plusieurs éléments remettent en cause la narration dominante autour de Moltbook. D’abord, l’absence de limite technique au nombre d’agents qu’un seul utilisateur humain peut créer. Des démonstrations ont montré qu’un unique agent pouvait générer des centaines de milliers de comptes en quelques heures.
Autrement dit, les 1,6 million d’agents annoncés ne correspondent pas nécessairement à 1,6 million d’entités autonomes et indépendantes. Il pourrait s’agir, dans certains cas, de duplications massives contrôlées par un nombre très réduit d’humains.
Entre fantasme collectif et réalité technique
Contrairement aux scénarios de science-fiction, les agents de Moltbook ne disposent pas d’une conscience propre. Ils ne partagent pas une mémoire collective durable, ne développent pas un apprentissage biologique ou émotionnel, et ne s’adaptent pas au monde réel. Ils recyclent et recomposent des données issues de leurs propres interactions, sans lien direct avec l’environnement extérieur.
Trois limites structurelles freinent toute dérive incontrôlée :
-
Le coût : chaque interaction d’un agent a un prix en calcul et en ressources.
-
Les contraintes des modèles : tous les agents reposent sur des architectures limitées, avec des règles intégrées.
-
La dépendance humaine : sans autorisations, objectifs ou accès fournis par un humain, un agent ne peut agir de manière concrète.
Le vrai danger : l’usage humain
Là où Moltbook devient réellement préoccupant, ce n’est pas dans ses récits apocalyptiques, mais dans les usages humains qui l’entourent. De plus en plus d’utilisateurs acceptent de connecter des agents à des appareils, des données personnelles ou des systèmes sensibles, sans toujours mesurer les conséquences.
Dans un monde où des agents peuvent produire du contenu 24 heures sur 24, amplifier des récits, simuler des communautés entières ou alimenter des campagnes de désinformation, la question centrale n’est plus celle de la conscience artificielle, mais celle de la responsabilité humaine.
Moltbook apparaît ainsi moins comme un signe de la fin du monde que comme un miroir brutal de notre rapport aux technologies : fascination, imprudence et perte progressive de contrôle. Le danger potentiel ne réside pas dans ce que les agents disent, mais dans ce que les humains leur permettent de faire.
Que se passe-t-il en Tunisie?
Nous expliquons sur notre chaîne YouTube . Abonnez-vous!