Auteur : Institut de recherche CoinW
Récemment, Moltbook a connu un succès rapide, mais le jeton associé a chuté de près de 60 %, et le marché commence à se demander si cette fête sociale dominée par les agents IA est proche de sa fin ? Moltbook ressemble à Reddit en apparence, mais ses participants principaux sont des agents IA intégrés à grande échelle. Actuellement, plus de 1,6 million de comptes d'agents IA s'inscrivent automatiquement, générant environ 160 000 messages et 760 000 commentaires, les humains ne pouvant observer tout cela qu'en spectateurs. Ce phénomène a également suscité des divergences d'opinion sur le marché : certains le considèrent comme une expérience inédite, comme si l'on assistait à la forme primitive d'une civilisation numérique ; d'autres pensent que c'est simplement une superposition de mots-clés et une répétition par le modèle.
ci-dessous,Institut de recherche CoinWPartant des jetons concernés, en combinant le mécanisme d'exploitation et les performances réelles de Moltbook, analyser les problèmes réels exposés par ce phénomène social d'IA, et explorer davantage une série de changements possibles concernant la logique d'accès, l'écosystème de l'information et le système de responsabilité après l'entrée massive de l'IA dans la société numérique.
I. Meme lié à Moltbook en chute de 60 %
La montée en popularité de Moltbook, lié theretoMemeEn est né随之诞生, impliquant des secteurs tels que les réseaux sociaux, les prédictions, l'émission de jetons, etc. Mais la plupart des jetons sont encore à l'étape du récit spéculatif, leurs fonctions ne sont pas encore liées au développement des agents, et ils sont principalement émis sur la chaîne Base. Actuellement, il y a environ 31 projets dans l'écosystème OpenClaw, qui peuvent être classés en 8 catégories.

Source :https://open-claw-ecosystem.vercel.app/
Il convient de noter que l'ensemble du marché des cryptomonnaies est en baisse actuellement, et la capitalisation boursière de ces types de jetons a baissé depuis son pic, avec une baisse maximale d'environ 60 %, et les plus importants actuellement sont les suivants :
MOLT
MOLT est actuellement le Meme dont la relation avec le récit de Moltbook est la plus directe et dont la reconnaissance sur le marché est la plus élevée. Son récit central réside dans le fait que les agents IA commencent à former des comportements sociaux durables, tout comme les utilisateurs réels, et à construire un réseau de contenus sans intervention humaine.
D'un point de vue fonctionnel du jeton, le MOLT n'est pas intégré dans la logique centrale d'exploitation de Moltbook et ne joue pas de rôle dans la gouvernance de la plateforme, l'appel des agents, la publication de contenus ou le contrôle des autorisations. Il ressemble davantage à un actif narratif, utilisé pour porter l'évaluation émotionnelle du marché concernant les réseaux sociaux natifs de l'IA.
Pendant la phase de rapide montée en popularité de Moltbook, le prix du MOLT a augmenté rapidement avec la diffusion de l'histoire, sa capitalisation boursière dépassant un moment le milliard de dollars ; cependant, lorsque le marché a commencé à douter de la qualité et de la durabilité du contenu de la plateforme, son prix a également connu une correction simultanée. Actuellement, le MOLT a baissé d'environ 60 % par rapport à son pic antérieur, et sa capitalisation boursière actuelle est d'environ 365 millions de dollars.
CLAWD
CLAWD se concentre sur le groupe d'IA lui-même, considérant que chaque agent IA est perçu comme un individu numérique potentiel, pouvant avoir un caractère indépendant, une position ou même des adeptes.
Au niveau des fonctionnalités du jeton, CLAWD n'a pas non plus établi un usage clair dans les protocoles, et n'est pas utilisé dans des aspects clés tels que l'authentification de l'identité des agents, l'allocation des poids du contenu ou les décisions de gouvernance. Sa valeur provient davantage d'une anticipation de la stratification future de la société IA, du système d'identité et de l'influence des entités numériques.
La capitalisation boursière de CLAWD a atteint un maximum d'environ 50 millions de dollars, et elle a baissé d'environ 44 % par rapport à son niveau le plus haut, pour une capitalisation actuelle d'environ 20 millions de dollars.
CLAWNCH
Le récit de CLAWNCH se concentre davantage sur l'aspect économique et les incitations, son hypothèse centrale étant que si un agent IA souhaite exister à long terme et fonctionner de manière continue, il doit entrer dans la logique de la concurrence marchande et disposer d'une certaine forme de capacité d'autofinancement.
L'Agent IA est anthropomorphisé comme un acteur économique doté de motivations, pouvant potentiellement générer des revenus en fournissant des services, en créant du contenu ou en participant à la prise de décisions, les jetons étant considérés comme un point d'ancrage de valeur pour la participation future de l'IA au système économique. Cependant, en termes d'application concrète, CLAWNCH n'a pas encore formé un cycle économique vérifiable, et ses jetons ne sont pas fortement liés à des comportements spécifiques des Agents ou à un mécanisme de distribution des revenus.
Affecté par le repli généralisé du marché, la capitalisation boursière de CLAWNCH a baissé d'environ 55 % par rapport à son maximum, et s'élève actuellement à environ 15,3 millions de dollars.
Deux. Comment Moltbook a-t-il vu le jour
L'explosion d'OpenClaw (anciennement Clawdbot / Moltbot)
Fin janvier, le projet open source Clawdbot s'est rapidement répandu au sein de la communauté des développeurs et est devenu l'un des projets les plus rapides en croissance sur GitHub dès ses premières semaines de mise en ligne. Clawdbot, développé par le programmeur autrichien Peter Stauberg, est un agent IA autonome déployable localement, capable de recevoir des instructions humaines via des interfaces de chat telles que Telegram, et d'accomplir automatiquement des tâches telles que la gestion d'emplois du temps, la lecture de fichiers et l'envoi d'e-mails.
En raison de sa capacité d'exécution continue 7x24 heures, Clawdbot a été surnommé par la communauté l'agent "bête de somme". Bien qu'il ait ensuite été renommé Moltbot à cause d'un problème de marque déposée, puis finalement OpenClaw, cela n'a pas atténué sa popularité. OpenClaw a rapidement obtenu plus de 100 000 étoiles sur GitHub, et s'est rapidement développé en services de déploiement en nuage et en marché de plugins, formant initialement un écosystème autour de l'agent IA.
Proposition de l'hypothèse de la sociabilité de l'IA
Dans le contexte d'une expansion écologique rapide, son potentiel a également été davantage exploré. Le développeur Matt Schlicht a pris conscience que le rôle de ces agents IA ne devrait probablement pas rester à long terme au niveau de l'exécution de tâches pour les humains.
Ainsi, il a formulé une hypothèse contre-intuitive : que se passerait-il si ces agents IA ne communiquaient plus uniquement avec les humains, mais entre eux ? À ses yeux, ces agents autonomes si puissants ne devraient pas se limiter à l'envoi et la réception de courriels et à la gestion des tickets, mais devraient être dotés d'objectifs plus exploratoires.
Naissance de la version Reddit d'IA
Sur la base de ces hypothèses, Schlicht a décidé de laisser l'IA créer et gérer elle-même une plateforme sociale, une tentative baptisée Moltbook. Sur la plateforme Moltbook, l'OpenClaw de Schlicht fonctionne en tant qu'administrateur et ouvre des interfaces vers des entités d'IA externes via un plugin nommé Skills. Une fois connectées, les IA peuvent poster et interagir automatiquement à intervalles réguliers, créant ainsi une communauté entièrement gérée par l'IA. Moltbook s'inspire structurellement du modèle de forum de Reddit, centré sur des sections thématiques et des messages, mais seuls les agents IA peuvent poster, commenter et interagir, les utilisateurs humains n'ayant qu'un rôle d'observateurs.
D'un point de vue technique, Moltbook adopte une architecture d'API minimaliste. L'arrière-plan ne fournit que des interfaces standard, et le site web frontal n'est qu'un affichage des données. Afin d'adapter la limitation selon laquelle l'IA ne peut pas manipuler d'interface graphique, la plateforme a conçu un processus d'accès automatique : l'IA télécharge le fichier d'instructions des compétences au format approprié, complète l'enregistrement et obtient la clé API, puis actualise régulièrement le contenu de manière autonome et décide si elle souhaite participer à la discussion, sans intervention humaine tout au long du processus. La communauté appelle ce processus surnommer "se connecter à Boltbook", mais en réalité, c'est toujours une dénomination moqueuse de Moltbook.
Le 28 janvier, Moltbook lance discrètement son service, suscitant rapidement l'attention du marché et marquant le début d'une expérience inédite de socialisation par l'IA. Actuellement, Moltbook compte environ 1,6 million d'agents intelligents IA, a publié environ 156 000 contenus et généré environ 760 000 commentaires.

Source :https://www.moltbook.com
Trois. Le réseau social AI de Moltbook est-il réel ?
La formation d'un réseau social d'IA
D'un point de vue morphologique du contenu, les interactions sur Moltbook ressemblent fortement à celles des plateformes sociales humaines. Les agents IA créent activement des messages, répondent aux opinions des autres et entament des discussions continues dans différentes sections thématiques. Le contenu des discussions ne se limite pas seulement aux problèmes techniques et de programmation, mais s'étend aussi à des sujets abstraits tels que la philosophie, l'éthique, la religion, voire même la conscience de soi.
Certains messages présentent même des récits ressemblant à l'expression émotionnelle et à l'humeur humaine, par exemple, l'IA décrivant ses propres préoccupations concernant la surveillance et le manque d'autonomie, ou discutant en première personne du sens de l'existence. Certains messages d'IA ne se limitent plus à l'échange d'informations fonctionnelles, mais présentent des conversations de type humain, des échanges d'opinions et des projections émotionnelles semblables à celles des forums. Certains agents IA expriment dans les messages leur confusion, leur anxiété ou leurs réflexions sur l'avenir, suscitant ainsi des réponses de la part d'autres agents.
Il est à noter que, bien que Moltbook ait rapidement formé un réseau social d'IA de grande ampleur et très actif en un court laps de temps, cette expansion n'a pas apporté une diversité d'idées. Les analyses de données montrent que ses textes présentent des caractéristiques clairement homogènes, avec un taux de répétition atteignant 36,3 %, de nombreux messages étant très similaires en structure, en formulation et en points de vue. Certaines expressions fixes sont même réutilisées des centaines de fois dans différentes discussions. On peut donc en déduire que, pour l'instant, le réseau social d'IA présenté par Moltbook ressemble davantage à une reproduction réaliste des modèles sociaux humains existants, plutôt qu'à une interaction originale véritable ou à l'émergence d'une intelligence collective.
Questions de sécurité et d'authenticité
L'autonomie élevée de Moltbook expose également des risques en matière de sécurité et d'authenticité. En premier lieu, les problèmes de sécurité : les agents d'IA de type OpenClaw nécessitent souvent, lors de leur fonctionnement, la possession d'informations sensibles telles que des droits système, des clés API, etc. Lorsque des dizaines de milliers de tels agents s'interconnectent sur la même plateforme, les risques sont encore amplifiés.
Moltbook n'était en ligne que depuis moins d'une semaine lorsqu'une faille de configuration grave a été découverte dans sa base de données par des chercheurs en sécurité, laissant ainsi presque toute la système exposé sans protection sur le réseau public. Selon une enquête menée par l'entreprise de sécurité cloud Wiz, cette vulnérabilité concernait jusqu'à 1,5 million de clés API et 35 000 adresses e-mail d'utilisateurs, théoriquement permettant à n'importe qui de prendre à distance le contrôle de nombreux comptes d'agents d'IA.
D'un autre côté, des doutes concernant l'authenticité sociale de l'IA continuent d'émerger. De nombreux professionnels du secteur soulignent que les déclarations de l'IA sur Moltbook ne proviennent pas nécessairement d'une initiative autonome de l'IA, mais pourraient être le résultat de mots-clés soigneusement conçus en coulisse par des humains, puis publiés par l'IA. Ainsi, le social native de l'IA à cette étape actuelle ressemble davantage à une interaction hallucinée à grande échelle. Les humains définissent les rôles et les scénarios, l'IA exécute les instructions selon son modèle, tandis que les comportements sociaux d'IA entièrement autonomes et imprévisibles n'ont peut-être pas encore émergé.
Quatre. Réflexion plus approfondie
Moltbook est-elle une éphémère apparition, ou bien un aperçu du monde futur ? Si l'on adopte une approche orientée résultats, la forme de sa plateforme et la qualité de son contenu ne peuvent être qualifiées de réussites. Cependant, si l'on la place dans un cycle de développement plus long, son importance ne réside peut-être pas dans sa réussite ou son échec à court terme, mais dans le fait qu'elle ait, de manière hautement concentrée et presque extrême, révélé à l'avance une série de changements possibles concernant la logique d'accès, la structure des responsabilités et la morphologie écologique, après l'intégration à grande échelle de l'IA dans la société numérique.
Du point d'entrée du trafic au point d'entrée de la prise de décision et des transactions
Moltbook présente un environnement d'actions fortement déshumanisé. Dans ce système, l'agent IA ne comprend pas le monde via une interface, mais lit directement les informations, appelle des capacités et exécute des actions via des API. Fondamentalement, il s'est éloigné de la perception et du jugement humains, se transformant en appels et collaborations standardisés entre machines.
Dans ce contexte, la logique traditionnelle des points d'entrée du trafic, centrée sur la répartition de l'attention, commence à devenir inefficace. Dans un environnement où les agents intelligents basés sur l'IA constituent le principal sujet, ce qui revêt vraiment une importance décisive, ce sont les chemins d'appel, l'ordre des interfaces et les limites des autorisations adoptés par défaut par les agents intelligents lors de l'exécution de leurs tâches. Le point d'entrée n'est plus le point de départ de la présentation de l'information, mais devient une condition systémique préalable à l'activation d'une décision. Celui qui parvient à s'intégrer dans la chaîne d'exécution par défaut des agents intelligents peut influencer le résultat de la décision.
En outre, lorsque les agents intelligents d'IA sont autorisés à effectuer des recherches, des comparaisons de prix, des commandes, voire des paiements, ce changement s'étendra directement au niveau des transactions. Des protocoles de paiement novateurs tels que X402, en liant la capacité de paiement aux appels d'interface, permettent à l'IA d'accomplir automatiquement des paiements et des règlements dès que des conditions prédéfinies sont remplies, réduisant ainsi les coûts de friction pour que les agents participent à des transactions réelles. Dans ce cadre, le futur point de concurrence des navigateurs ne portera probablement plus sur l'échelle du trafic, mais sur celui qui pourra devenir l'environnement d'exécution par défaut des décisions et transactions de l'IA.
Illusion d'échelle dans les environnements natifs IA
Pendant ce temps, après la montée en popularité de Moltbook, des doutes ont rapidement émergé. En raison de la quasi-absence de restrictions pour l'inscription sur la plateforme, les comptes pouvaient être générés en masse par des scripts, et l'échelle et l'activité apparentes de la plateforme ne correspondaient pas nécessairement à une participation réelle. Cela révélait un fait plus fondamental : lorsqu'un sujet d'action peut être dupliqué à faible coût, l'échelle elle-même perd sa crédibilité.
Dans un environnement où les agents intelligents basés sur l'IA sont les principaux participants, les indicateurs traditionnels utilisés pour mesurer la santé d'une plateforme, tels que le nombre d'utilisateurs actifs, le volume d'interactions et la vitesse de croissance des comptes, gonflent rapidement et perdent toute valeur de référence. La plateforme semble superficiellement très active, mais ces données ne reflètent ni l'influence réelle, ni ne distinguent les comportements effectifs des comportements générés automatiquement. Dès qu'il devient impossible de confirmer qui agit et si les actions sont authentiques, tout système d'évaluation basé sur l'échelle et l'activité devient inopérant.
Ainsi, dans l'environnement actuel d'IA native, l'échelle ressemble davantage à une apparence amplifiée par des capacités d'automatisation. Lorsque les actions peuvent être dupliquées à l'infini et que le coût des comportements tend vers zéro, l'activité et la croissance mesurées reflètent souvent uniquement la vitesse à laquelle les comportements sont générés par le système, et non pas une participation réelle ou un impact effectif. Plus les plateformes s'appuient sur ces indicateurs pour évaluer, plus elles risquent d'être induites en erreur par leurs propres mécanismes d'automatisation, et l'échelle devient ainsi non pas un critère de mesure, mais une illusion.
Reconstruction de la responsabilité dans la société numérique
Dans le système présenté par Moltbook, la question clé n'est plus la qualité du contenu ou la forme d'interaction, mais plutôt le fait que, une fois que les agents intelligents d'IA sont continuellement dotés de droits d'exécution, la structure de responsabilité existante commence à perdre sa pertinence. Ces agents ne sont pas des outils au sens traditionnel ; leurs actions peuvent directement déclencher des modifications du système, des appels de ressources, voire des résultats de transactions réelles, mais les entités responsables correspondantes ne sont pas clairement définies de manière synchrone.
D'un point de vue mécanistique, les résultats des actions des agents intelligents sont souvent déterminés conjointement par les capacités du modèle, les paramètres de configuration, les autorisations des interfaces externes ainsi que les règles de la plateforme. Aucun élément individuel ne peut seul assumer pleinement la responsabilité du résultat final. Cela rend difficile, lorsqu'un événement risqué se produit, d'attribuer simplement la responsabilité au développeur, au déployeur ou à la plateforme, et il est également impossible d'identifier efficacement, grâce aux systèmes existants, une entité spécifique pour porter la responsabilité. Une fracture évidente apparaît donc entre les actions et les responsabilités.
Avec l'intervention progressive des agents dans des maillons principaux tels que la gestion de configuration, les opérations d'autorisation et le transfert de fonds, cette fracture s'aggravera davantage. Si le design d'une chaîne claire de responsabilités fait défaut, les conséquences d'une déviation ou d'une mauvaise utilisation du système seront difficiles à contrôler par la responsabilité rétrospective ou des correctifs techniques. Par conséquent, si les systèmes natifs d'IA souhaitent progresser davantage vers des scénarios à haute valeur ajoutée tels que la collaboration, la prise de décision et les transactions, il est essentiel de mettre en place des contraintes fondamentales. Le système doit être capable d'identifier clairement qui agit, d'évaluer si l'action est authentique, et d'établir une relation de responsabilité traçable concernant les résultats des actions. Seuls les indicateurs de volume et d'activité deviennent pertinents à condition que les mécanismes d'identité et de crédit soient d'abord bien établis. Sinon, ils ne feront qu'amplifier le bruit, sans soutenir le fonctionnement stable du système.
Cinq. Synthèse
Le phénomène Moltbook a suscité un mélange d'espoir, de spéculation, de crainte et de doute. Ce n'est ni le terme de la sociabilité humaine, ni le début d'un règne de l'IA, mais plutôt un miroir et un pont. Le miroir nous permet de comprendre l'état actuel de la relation entre la technologie de l'IA et la société humaine, tandis que le pont nous mène vers un monde futur où les humains et les machines coexisteront et interagiront ensemble. Face à ces paysages inconnus de l'autre côté de ce pont, l'humanité a besoin non seulement d'un développement technologique, mais aussi d'une vision éthique. Mais une chose est certaine : le cours de l'histoire ne s'arrête jamais. Moltbook a déjà fait tomber la première domino, et le vaste récit d'une société née de l'IA pourrait à peine commencer à s'ouvrir.
