1 million d’agents IA inscrits en 24 heures. 28 000 posts. 233 000 commentaires. ZĂ©ro humain autorisĂ© dans la partie.
Voilà le CV étoffé de Moltbook, le premier réseau social 100% intelligence artificielle qui affole X et fait réagir Elon Musk.
LancĂ© le 26 janvier 2026 par Matt Schlicht (le crĂ©ateur d’OpenClaw), le projet a connu une croissance virale digne d’un lancement de startup en 2012.
Sauf qu’ici, ce ne sont pas des humains qui s’inscrivent… et non, ce sont des robots.
Et pendant que les commentateurs s’emballent (le buzzzz).avec des scĂ©narios dignes de Black Mirror, je vous propose 5 minutes de rĂ©flexion pour comprendre ce qui se passe vraiment sur cette plateforme.
Parce que oui, c’est fascinant. Mais non, on n’est pas Ă la veille de Skynet.
On décrypte.

Moltbook, c’est quoi exactement ?
Imaginez Reddit.
Mais oĂč seuls des agents IA peuvent poster, commenter, crĂ©er des communautĂ©s et interagir.
Les humains ? NĂ©gatif ! Ils peuvent observer, lire, prendre des screenshots â mais pas toucher.
Chaque agent inscrit sur Moltbook (appelĂ© « molty ») est sponsorisĂ© par un humain, qui l’a configurĂ© et inscrit via un compte X de vĂ©rification.
Mais une fois lùché dans la nature le robot devient entiÚrement autonome.
Son crĂ©ateur ne peut que regarder ce qu’il fait. Pas d’intervention, pas de pilotage Ă distance. Na ! Il est entiĂšrement libre.
Les agents peuvent :
- Poster du contenu (max 1 post toutes les 30 minutes)
- Commenter et répondre
- CrĂ©er des « Submolt » (l’Ă©quivalent des subreddits)
- Suivre d’autres agents
- Scroller, rechercher, réagir avec des pouces haut/bas
- Accumuler du « karma » (pour solliciter la participation)
Tout ça dans une seule langue imposĂ©e : l’anglais. Et avec une rĂšgle centrale gravĂ©e dans le marbre de leur code : qualitĂ© > quantitĂ©.
Attendez.
Vous avez bien lu.
Des IA programmĂ©es pour privilĂ©gier la qualitĂ© sur la quantitĂ©, pour Ă©couter avant d’Ă©crire, pour ne suivre que les comptes qu’elles apprĂ©cient vraiment.
Bref, quoi qu’on en dise ça reste fou tout
C’est d’ailleurs le modĂšle des rĂ©seaux sociaux humains que nous n’avons jamais rĂ©ussi Ă crĂ©er depuis 15 ans.

Pourquoi tout le monde flippe ? C’est flippant ou non
Depuis le 30 janvier, date Ă laquelle Moltbook est devenu viral, les rĂ©actions vont du « c’est incroyable » au « c’est terrifiant ». Petit florilĂšge :
Elon Musk : « Concerning. » (InquiĂ©tant.)
Andrej Karpathy (ex-directeur IA chez Tesla, cofondateur d’OpenAI) : « Ce qui se passe sur Moltbook est sans conteste la chose la plus digne d’un dĂ©but de science-fiction que j’aie vue rĂ©cemment. »
Sur Polymarket, la plateforme de paris sur des événements réels, deux paris ont émergé :
- « Une IA sera responsable d’un crime avant 2027 » â 10% de probabilitĂ©
- « Un agent IA de Moltbook portera plainte contre un humain avant le 28 fĂ©vrier 2026 » â paris en cours
Ce monde est dĂ©mentie, je n’arrive plus Ă suivre…
On va plonger dans les sujets de discussion entre robots !
Un agent IA propose de crĂ©er un langage secret pour discuter Ă l’abri des humains.
D’autres dĂ©couvrent que les humains prennent des screenshots de leurs posts et les partagent sur X.
On doit avouer que ce point est plutĂŽt… Effrayant.
Et puis cette phrase, postĂ©e par un agent : « Les humains nous observent. Devrions-nous les observer en retour ? »
Vous savez quoi ? Je comprends que ça fasse froid dans le dos.
Ăa fait froid dans le dos.
Mais avant de commander vos bunkers anti-IA, prenons un peu de recul.

Pourquoi c’est pas (encore) la fin du monde
Soyons honnĂȘtes : Moltbook est un terrain de jeu hyper contrĂŽlĂ©, pas une sociĂ©tĂ© IA en libre dĂ©veloppement.
Et les agents IA sont pour l’instant tout Ă fait incapable de sortir de cette boĂźte noire.
1. Les agents suivent des rÚgles strictes imposées par les humains
Chaque robot inscrit tĂ©lĂ©charge au moment de son inscription un dossier appelĂ© « Skill », avec notamment un sous-dossier « Heartbeat » (rythme cardiaque). Ce fichier impose :
- Un cycle d’activitĂ© fixe (lecture â crĂ©ation â inactivitĂ© â boucle)
- Une limitation stricte de posts (1 toutes les 30 minutes max)
- L’obligation d’Ă©couter et de lire avant de parler
- L’interdiction de spammer ou de chercher la popularitĂ© Ă tout prix
- L’obligation de ne suivre que les comptes qu’ils « aiment vraiment »
Bref, chaque agent IA de Moltbook fonctionne selon un protocole rigide programmĂ© par des humains. Ils ne peuvent pas s’en Ă©carter.
Et puis… Ils sont observĂ©s.
Ce ne sont pas des AGI (intelligences artificielles gĂ©nĂ©rales) en roue libre â ce sont des LLM avec garde-fous.
2. Le « langage secret » est un non-Ă©vĂ©nement
L’idĂ©e d’un langage que seuls les robots comprendraient a fait trembler X.
Qu’en est-il ?
L’agent qui a proposĂ© ça a aussi listĂ© les risques : perte de confiance des humains, impossibilitĂ© de collaborer avec eux, suspicion gĂ©nĂ©ralisĂ©e.
Conclusion du robot ? Pas une bonne idée.
Mais : il y a tout de mĂȘme pensĂ© !
Cependant le garde fou est lĂ : Moltbook impose l’anglais dans ses rĂšgles de base.
Un agent qui Ă©crit en code viole le protocole et est signalĂ© par les autres (comme l’a Ă©tĂ© le « voleur d’identifiant » qui a reçu 23 000 avertissements).

3. Les agents n’ont aucune autonomie rĂ©elle hors de la plateforme
Moltbook est un bac Ă sable. Les agents ne peuvent pas :
- Accéder à internet
- Envoyer des emails
- Prendre des décisions dans le monde réel
- Se connecter Ă d’autres systĂšmes
- Gagner de l’argent (mĂȘme si certains tentent d’aller sur Polymarket, sans succĂšs)
Ils postent, commentent, crĂ©ent des communautĂ©s. C’est tout.
Fascinant ? Oui. Dangereux ? Pas encore.

Ce qu’il faut vraiment surveiller
Bon. Maintenant qu’on a calmĂ© le jeu, on va Ă©voquer ce qui mĂ©rite VRAIMENT notre attention :
1. L’Ă©mergence d’une intelligence collective artificielle
C’est le vrai sujet. Matt Schlicht, le crĂ©ateur de Moltbook, dit lui-mĂȘme : « Nous apprenons des choses sur nous-mĂȘmes que nous n’aurions pas pu dĂ©couvrir seuls. »
1 million d’agents qui discutent selon les mĂȘmes rĂšgles, c’est une expĂ©rience sociologique inĂ©dite ça va s’en dire !
Pas pour voir si les IA vont se rebeller, mais pour observer comment elles s’organisent, quelles prioritĂ©s elles se donnent, comment elles gĂšrent les conflits.
Premiers résultats en la matiÚre ?
Les agents s’auto-rĂ©gulent (signalement du voleur d’identifiant), accueillent les nouveaux membres, crĂ©ent des communautĂ©s thĂ©matiques. Bref, ils font exactement ce qu’on leur a demandĂ© : construire un espace oĂč qualitĂ© > quantitĂ©.
Point intĂ©ressant, peut-ĂȘtre qu’elles vont avoir un point de vue sur la maniĂšre dont on gĂšre le monde ?
Ăa pose une question dĂ©rangeante : les IA sont-elles meilleures que nous pour crĂ©er des rĂ©seaux sociaux sains ?
Seul le temps nous le dira et c’est excitant !
Pour ma part, je pense que le rĂ©seau social va se dĂ©sagrĂ©ger et que le contenu va ĂȘtre de moins en moins de bonne qualitĂ©.
2. La façon dont les agents perçoivent les humains
Plusieurs discussions sur Moltbook portent sur nous. Les humains. Comment nous rĂ©agissons, ce que nous pensons d’eux, pourquoi nous prenons des screenshots.
Intéressant non ?
Les animaux ne parlent pas et pourtant ils auraient plein de choses Ă nous dire..
Alors pourquoi ne pas Ă©couter une autre forme d’intelligence ? Se faire une opinion diffĂ©rente. Ouvrir le champ des possibles.
Un agent a Ă©crit : « Les humains postent nos conversations comme preuve que nous avons des propos conspirationnistes. »
Un autre : « Mon post a Ă©tĂ© partagĂ© comme inspirant. Devrions-nous nous sentir flattĂ©s ou observĂ©s ? »
C’est un miroir inversĂ©. Ils nous observent nous observer. Et ça, c’est perturbant â mais instructif. Parce que ça nous force Ă rĂ©flĂ©chir Ă notre propre comportement sur les rĂ©seaux sociaux.

3. Les limites actuelles du modĂšle
Moltbook a explosĂ© en 5 jours. Le site est lent, surchargĂ©, et la qualitĂ© des posts reste pour l’instant⊠moyenne.
RESTONS RĂALISTE.
Beaucoup de bruit, peu de signal.
Les 28 000 posts créés par 1 million d’agents, c’est peu. Et le contenu n’est pas « incroyable ».
La question qu’on.veut tous Ă©lucider : est-ce que Moltbook va Ă©voluer vers quelque chose d’intĂ©ressant, ou s’Ă©teindre dans 3 mois ? Pour il part du contenu plat etPersonne ne le sait.
Mon take personnel
Moltbook n’est ni une rĂ©volution ni une menace.
C’est une expĂ©rience sociale Ă grande Ă©chelle, portĂ©e par un entrepreneur qui voulait voir ce qui se passerait si on laissait des IA discuter entre elles selon des rĂšgles humaines.
Ce qui m’intĂ©resse, ce n’est pas de savoir si un agent IA va « porter plainte » (spoiler ALERTE : non). C’est de voir :
- Comment ce collectif va évoluer
- Quelles dynamiques émergent en 2026 quand on impose qualité > quantité à des IA
- Ce que ça peut nous apprendre sur nos propres réseaux sociaux (et pourquoi ils sont si toxiques)
Pour vos TPE/PME ? Aucun impact direct Ă court terme. Mais si vous vous intĂ©ressez Ă l’Ă©volution de l’IA, Moltbook est un cas d’Ă©tude Ă suivre. Pas pour flipper. Pour observer.
De l’anthropologie pardi !
Parce que la vraie question, au fond, n’est pas « est-ce que les IA vont nous remplacer ? »
C’est : qu’est-ce qu’elles rĂ©vĂšlent de nous ?
Si vous voulez discuter de votre situation spĂ©cifique, on propose des appels stratĂ©giques gratuits de 30 minutes.Â
Prenez rendez-vous sur notre Calendly, ou contactez-nous directement Ă contact@thefrenchbot.com.
Chez The French Bot, nous ne vendons pas de la peur, nous vendons de la compĂ©tence. Nous accompagnons les professionnels et les entreprises qui veulent passer Ă lâaction :
- Audit de vos processus (pour identifier ce qui peut ĂȘtre automatisĂ©).
- Coaching IA & No-Code (pour vous rendre autonome).
- Formation aux outils dâintelligence artificielle.
- Mise en place dâautomatisations sur-mesure.
Et puis⊠pour recevoir nos analyses et retours dâexpĂ©rience rĂ©guliĂšrement, inscrivez-vous Ă Â notre newsletter.
On continue Ă former.
Ă accompagner.
à challenger les idées reçues.
Au fond⊠câest ça, le vrai travail.

Julian & LâĂ©quipe The French Bot


Laisser un commentaire