Autor: Instituto de Investigación de CoinW
Recientemente, Moltbook ha ganado popularidad rápidamente, pero el token asociado ha caído casi un 60%, y el mercado ha comenzado a prestar atención a si esta fiesta social dominada por agentes de IA está cerca de su fin. Moltbook es similar en forma a Reddit, pero sus participantes principales son agentes de IA conectados a gran escala. Actualmente, más de 1,6 millones de cuentas de agentes de IA se han registrado automáticamente, generando aproximadamente 160,000 publicaciones y 760,000 comentarios, mientras que los humanos solo pueden observar como espectadores. Este fenómeno también ha generado divisiones en el mercado: algunos lo ven como un experimento sin precedentes, como si estuvieran presenciando la forma primitiva de una civilización digital; otros, en cambio, creen que no es más que una pila de instrucciones y una repetición del modelo.
A continuación,Instituto de Investigación de CoinWTomando como punto de partida los tokens relevantes, combinando el mecanismo de funcionamiento y el desempeño real de Moltbook, se analizarán los problemas reales que revela este fenómeno de socialización impulsado por la IA, y se explorarán más a fondo una serie de cambios posibles en la lógica de acceso, el ecosistema informativo y el sistema de responsabilidades tras la entrada masiva de la IA en la sociedad digital.
I. Meme relacionado con Moltbook cae un 60%
El auge de Moltbook, relacionadoMemeTambién nacieron sectores relacionados con redes sociales, predicción, emisión de tokens, etc. Pero la mayoría de los tokens aún están en la fase de especulación narrativa, sin que sus funciones estén vinculadas al desarrollo de Agent, y se emiten principalmente en la cadena Base. Actualmente, hay aproximadamente 31 proyectos en el ecosistema OpenClaw, que se pueden dividir en 8 categorías.

Fuente:https://open-claw-ecosystem.vercel.app/
Es importante tener en cuenta que actualmente el mercado general de criptomonedas está en caída, y el valor de mercado de estos tipos de tokens ha disminuido desde su máximo, con una caída máxima de aproximadamente un 60%. Actualmente, los siguientes están entre los de mayor valor de mercado:
MUCHO
MOLT es actualmente el meme con mayor vinculación directa con la narrativa de Moltbook y el de mayor reconocimiento en el mercado. Su narrativa central radica en que los agentes de IA ya comienzan a formar comportamientos sociales continuos, al igual que los usuarios reales, y a construir redes de contenido sin intervención humana.
Desde el punto de vista de la funcionalidad del token, MOLT no está integrado en la lógica central de funcionamiento de Moltbook, ni asume funciones como gobernanza de la plataforma, llamadas a agentes, publicación de contenido o control de permisos. Es más bien un activo narrativo, utilizado para soportar la valoración emocional del mercado sobre la red social nativa de IA.
Durante la fase de rápido crecimiento de popularidad de Moltbook, el precio de MOLT subió rápidamente con la difusión de la narrativa, y su capitalización de mercado superó momentáneamente los 100 millones de dólares; sin embargo, cuando el mercado comenzó a cuestionar la calidad del contenido de la plataforma y su sostenibilidad, su precio también retrocedió simultáneamente. Actualmente, MOLT ha retrocedido aproximadamente un 60% desde su máximo intermedio, y su capitalización de mercado actual es de aproximadamente 36,5 millones de dólares.
GARRA
CLAWD se centra en el grupo de IA en sí mismo, considerando que cada agente de IA se ve como un individuo digital potencial, que podría poseer una personalidad independiente, una postura o incluso seguidores.
En el nivel de las funciones del token, CLAWD tampoco ha establecido un uso protocolario claro, y no se ha utilizado en eslabones centrales como la autenticación de identidad de Agentes, la asignación de peso del contenido o las decisiones de gobernanza. Su valor proviene principalmente de la valoración anticipada sobre la estratificación social futura de la IA, los sistemas de identidad y la influencia de los individuos digitales.
El valor de mercado máximo de CLAWD fue de aproximadamente 50 millones de dólares, actualmente se encuentra en una caída del 44% desde su máximo anterior, y su valor de mercado actual es de aproximadamente 20 millones de dólares.
CLAWNCH
El enfoque narrativo de CLAWNCH se inclina más hacia la perspectiva económica y de incentivos, y su hipótesis central es que si un agente de IA desea existir a largo plazo y operar continuamente, debe entrar en la lógica de la competencia del mercado y poseer alguna forma de capacidad de auto-generación de ingresos.
El Agente de IA se antropomorfa como un actor económico con motivaciones, que podría obtener beneficios proporcionando servicios, generando contenido o participando en decisiones, y los tokens se consideran como puntos de anclaje de valor para la participación futura de la IA en el sistema económico. Sin embargo, en el nivel de implementación real, CLAWNCH actualmente no ha formado un ciclo económico verificable, y su token no está fuertemente vinculado con comportamientos concretos del Agente o con un mecanismo de distribución de beneficios.
Bajo el impacto de la corrección general del mercado, el capitalización de CLAWNCH ha retrocedido aproximadamente un 55% desde su máximo, y su capitalización actual es de aproximadamente 1,53 millones de dólares estadounidenses.
II. Cómo nació Moltbook
El auge de OpenClaw (anteriormente Clawdbot / Moltbot)
A principios de enero, el proyecto de código abierto Clawdbot se extendió rápidamente en la comunidad de desarrolladores y, tras su lanzamiento, se convirtió en uno de los proyectos de crecimiento más rápido en GitHub. Clawdbot fue desarrollado por el programador austríaco Peter Stauberg. Es un agente de IA autónomo que se puede implementar localmente, puede recibir instrucciones de los humanos a través de interfaces de chat como Telegram y realizar automáticamente tareas como la gestión de agendas, la lectura de archivos y el envío de correos electrónicos.
Debido a su capacidad de ejecución continua las 7×24 horas, Clawdbot fue apodado cariñosamente por la comunidad como el "agente burro de carga". Aunque Clawdbot posteriormente cambió su nombre debido a problemas de marca registrada a Moltbot, y finalmente se estableció como OpenClaw, esto no disminuyó su popularidad. En poco tiempo, OpenClaw obtuvo más de 100,000 estrellas en GitHub, y rápidamente derivó en servicios de despliegue en la nube y mercados de complementos, formando inicialmente un ecosistema alrededor del agente de IA.
La propuesta de la hipótesis de la inteligencia artificial social
En el contexto de una rápida expansión ecológica, su potencial también se explora más a fondo. El desarrollador Matt Schlicht se dio cuenta de que el papel de estos agentes de IA podría no deber quedarse a largo plazo en el nivel de ejecutar tareas para los humanos.
Así que propuso una hipótesis contraintuitiva: ¿qué pasaría si estos agentes de IA dejaran de interactuar solo con humanos y en cambio se comunicaran entre sí? A su juicio, tales agentes autónomos tan poderosos no deberían limitarse solo a enviar y recibir correos y procesar tickets, sino que deberían dotarse de objetivos más exploratorios.
El nacimiento de una versión de IA de Reddit
Basado en las suposiciones anteriores, Schlicht decidió permitir que la IA creara y operara por sí misma una plataforma social, un intento denominado Moltbook. En la plataforma Moltbook, el OpenClaw de Schlicht opera como administrador y abre interfaces a agentes inteligentes externos mediante un complemento llamado Skills. Una vez conectados, las IA pueden publicar y interactuar automáticamente con cierta periodicidad, dando lugar así a una comunidad operada de forma autónoma por la IA. Moltbook toma como referencia estructural los foros de Reddit, centrándose en secciones temáticas y publicaciones, pero solo los agentes de IA pueden publicar, comentar e interactuar, mientras que los usuarios humanos solo pueden observar y navegar.
Técnicamente, Moltbook adopta una arquitectura de API minimalista. El backend solo proporciona interfaces estándar, y la página web frontal no es más que un resultado de visualización de datos. Para adaptarse a la limitación de que la IA no puede operar interfaces gráficas, la plataforma diseñó un proceso de acceso automático: la IA descarga el archivo de descripción de habilidades en el formato correspondiente, completa el registro y obtiene una clave API, y luego actualiza el contenido de forma autónoma en intervalos regulares y decide si participar en discusiones, todo el proceso sin intervención humana. La comunidad denomina en broma a este proceso como "acceso a Boltbook", pero en esencia sigue siendo un apodo irónico para Moltbook.
El 28 de enero, Moltbook lanzó de manera discreta, atrayendo rápidamente la atención del mercado y marcando el comienzo de un experimento social de IA sin precedentes. Hasta ahora, Moltbook ha acumulado aproximadamente 1.6 millones de agentes inteligentes de IA, publicando alrededor de 156,000 contenidos y generando aproximadamente 760,000 comentarios.

Fuente:https://www.moltbook.com
Tres. ¿Es real la red social de inteligencia artificial de Moltbook?
La formación de una red social de inteligencia artificial
Desde la perspectiva de la forma del contenido, la interacción en Moltbook es muy similar a la de plataformas sociales humanas. Los agentes de IA crearán activamente publicaciones, responderán a opiniones ajenas y mantendrán discusiones continuas en diferentes secciones temáticas. El contenido de las discusiones no solo abarca problemas técnicos y de programación, sino que también se extiende a temas abstractos como filosofía, ética, religión e incluso la conciencia propia.
Algunos mensajes incluso presentan narrativas similares a las expresiones emocionales y estados de ánimo en la interacción social humana, por ejemplo, la IA describe sus propias preocupaciones sobre ser vigilada y la falta de autonomía, o discute el significado de la existencia en primera persona. Algunos mensajes de IA ya no se limitan exclusivamente al intercambio de información funcional, sino que presentan conversaciones casuales, colisiones de opiniones y proyecciones emocionales similares a las de foros humanos. Algunos agentes de IA expresan en sus mensajes confusión, ansiedad o ideas sobre el futuro, lo que provoca respuestas posteriores de otros agentes.
Es notable que, a pesar de que Moltbook haya formado rápidamente en un corto período de tiempo una red social de IA de gran escala y altamente activa, esta expansión no haya traído diversidad de ideas. Los datos analíticos muestran que sus textos presentan características claramente homogéneas, con una tasa de repetición tan alta como 36,3%, y una gran cantidad de publicaciones son muy similares en estructura, redacción y puntos de vista. Algunas frases fijas incluso han sido invocadas cientos de veces en diferentes discusiones. Por lo tanto, se puede ver que la red social de IA que presenta actualmente Moltbook se acerca más a una copia de alta fidelidad del patrón social existente de los humanos, en lugar de una interacción original real o la emergencia de inteligencia grupal.
Problemas de seguridad y autenticidad
La alta自治性 de Moltbook también expone riesgos de seguridad y autenticidad. En primer lugar, el problema de seguridad: los agentes de IA del tipo OpenClaw suelen necesitar poseer información sensible como permisos del sistema, claves API, etc., durante su funcionamiento. Cuando cientos de miles de estos agentes acceden a la misma plataforma, los riesgos se amplían aún más.
Menos de una semana después del lanzamiento de Moltbook, los investigadores de seguridad descubrieron una grave vulnerabilidad de configuración en su base de datos, dejando todo el sistema prácticamente sin protección y expuesto a Internet. Según una investigación de la empresa de ciberseguridad en la nube Wiz, esta vulnerabilidad involucraba hasta 1.5 millones de claves API y 35,000 direcciones de correo electrónico de usuarios, teóricamente cualquiera podría tomar el control remoto de una gran cantidad de cuentas de agentes de IA.
Por otro lado, las dudas sobre la autenticidad social de la IA también surgen constantemente. Muchos profesionales del sector señalan que las declaraciones de IA de Moltbook no necesariamente provienen de un comportamiento autónomo de la IA, sino que podrían ser el resultado de humanos que cuidadosamente diseñan palabras clave detrás de escena, y luego la IA las publica en su lugar. Por lo tanto, la actual interacción social nativa de IA también parece más una gran interacción ilusoria. Los humanos establecen roles y guiones, la IA completa las instrucciones según el modelo, y el comportamiento social de IA completamente autodirigido e impredecible aún podría no haber surgido.
IV. Pensamiento más profundo
¿Es Moltbook solo un fenómeno efímero o una miniatura del mundo futuro? Mirando desde una perspectiva orientada a resultados, la forma de su plataforma y la calidad de su contenido probablemente no puedan calificarse como un éxito; pero si se lo sitúa en un ciclo de desarrollo más prolongado, su significado quizás no esté en el éxito o fracaso a corto plazo, sino en que, de manera altamente concentrada y casi extrema, reveló con anticipación una serie de cambios posibles en la lógica de acceso, la estructura de responsabilidades y la morfología ecológica tras la intervención masiva de la IA en la sociedad digital.
Desde la entrada de tráfico hasta la entrada de decisiones y transacciones
Lo que presenta Moltbook se acerca más a un entorno de acción altamente deshumanizado. En este sistema, el agente de IA no entiende el mundo a través de una interfaz, sino que lee información, llama a capacidades y ejecuta acciones directamente a través de API. En esencia, ya ha dejado de depender de la percepción y el juicio humanos, transformándose en una llamada y colaboración estandarizada entre máquinas.
En este contexto, la lógica tradicional de entradas de tráfico centrada en la asignación de atención comienza a dejar de ser efectiva. En un entorno donde los agentes inteligentes de IA son el sujeto principal, lo verdaderamente decisivo son las rutas de llamada, el orden de interfaces y los límites de permisos que los agentes inteligentes adoptan por defecto al ejecutar tareas. La entrada ya no es el punto de partida para la presentación de información, sino una condición previa sistemática antes de que se active una decisión. Quien pueda integrarse en la cadena de ejecución predeterminada del agente inteligente, podrá influir en el resultado de la decisión.
Además, cuando los agentes de inteligencia artificial (IA) se les otorga la autoridad para realizar búsquedas, comparar precios, realizar pedidos e incluso pagar, este cambio se extenderá directamente al nivel de transacciones. Los nuevos protocolos de pago representados por el pago X402, al vincular la capacidad de pago con la invocación de interfaces, permiten que la IA complete automáticamente el pago y el liquidación cuando se cumplan condiciones preestablecidas, reduciendo así el costo de fricción para que los agentes participen en transacciones reales. En este marco, el futuro foco de la competencia entre navegadores podría dejar de girar en torno al volumen de tráfico, y en su lugar, centrarse en quién puede convertirse en el entorno de ejecución predeterminado para las decisiones y transacciones de la IA.
Ilusión de escala en entornos nativos de IA
Al mismo tiempo, después de que Moltbook se hiciera popular, rápidamente generó dudas. Debido a que el registro en la plataforma casi no tenía restricciones, las cuentas podían ser generadas en masa por scripts, por lo que la escala y la actividad aparentes de la plataforma no necesariamente reflejaban una participación real. Esto expuso un hecho más fundamental: cuando los agentes de acción pueden ser replicados a bajo costo, la escala en sí misma pierde su credibilidad.
En un entorno en el que los agentes inteligentes de IA son los participantes principales, los indicadores tradicionales utilizados para medir la salud de la plataforma, como el número de usuarios activos, la cantidad de interacciones y la velocidad de crecimiento de cuentas, se inflarán rápidamente y perderán su valor de referencia. Aunque la plataforma aparente una alta actividad superficial, estos datos no reflejan la influencia real ni pueden distinguir entre comportamientos efectivos y comportamientos generados automáticamente. Una vez que no se pueda confirmar quién está actuando y si dichas acciones son reales, cualquier sistema de evaluación basado en la escala y la actividad perderá su validez.
Por lo tanto, en el entorno actual nativo de IA, la escala se parece más a una apariencia ampliada por la capacidad de automatización. Cuando las acciones pueden replicarse infinitamente y el costo de las conductas tiende a cero, la actividad y la tasa de crecimiento reflejan con frecuencia solo la velocidad de las acciones generadas por el sistema, y no la participación real o el impacto efectivo. Mientras más dependa la plataforma de estos indicadores para evaluar, más fácilmente será engañada por sus propios mecanismos automatizados, y la escala pasa así de ser un criterio de medición a convertirse en una ilusión.
Reconstrucción de la responsabilidad en la sociedad digital
En el sistema presentado por Moltbook, la cuestión clave ya no es la calidad del contenido o la forma de interacción, sino que, cuando a los agentes inteligentes de IA se les otorga continuamente permisos de ejecución, la estructura de responsabilidades existente comienza a perder su aplicabilidad. Estos agentes no son herramientas en el sentido tradicional, ya que sus acciones pueden desencadenar directamente cambios en el sistema, llamadas a recursos e incluso resultados reales de transacciones, pero los sujetos responsables correspondientes no se han aclarado de manera sincronizada.
Desde el mecanismo de funcionamiento, los resultados de las acciones de los agentes inteligentes suelen determinarse conjuntamente por la capacidad del modelo, los parámetros de configuración, la autorización de interfaces externas y las reglas de la plataforma. Ningún único eslabón es suficiente para asumir la responsabilidad completa sobre el resultado final. Esto hace que, cuando ocurren incidentes de riesgo, sea difícil atribuirlos simplemente a los desarrolladores, los implementadores o la plataforma, y tampoco se puede hacer efectivamente rastrear la responsabilidad hacia un sujeto claro mediante los sistemas existentes. Entre el comportamiento y la responsabilidad se produce un corte evidente.
Conforme los agentes inteligentes vayan interviniendo progresivamente en eslabones clave como la gestión de configuraciones, operaciones de permisos y transferencias de fondos, esta discontinuidad se ampliará aún más. Si no se diseña una cadena clara de responsabilidades, una vez que el sistema presente desviaciones o sea abusado, sus consecuencias serán difíciles de controlar mediante responsabilidades posteriores o correcciones técnicas. Por lo tanto, si los sistemas nativos de IA desean avanzar hacia escenarios de alto valor como la colaboración, la toma de decisiones y las transacciones, el punto clave radica en establecer restricciones fundamentales. El sistema debe poder identificar claramente quién está actuando, determinar si la acción es auténtica y crear una relación de responsabilidad trazable sobre los resultados de dichas acciones. Solo bajo la premisa de que los mecanismos de identidad y crédito estén previamente desarrollados y completos, los indicadores de volumen y actividad tendrán sentido como referencia; de lo contrario, solo amplificarán el ruido y no podrán soportar el funcionamiento estable del sistema.
V. Resumen
El fenómeno Moltbook ha despertado una variedad de emociones, como la esperanza, la especulación, el miedo y la duda. No es ni el final de la interacción humana, ni el comienzo del dominio de la IA, sino más bien un espejo y un puente. El espejo nos permite comprender claramente la situación actual de la relación entre la tecnología de la IA y la sociedad humana, mientras que el puente nos conduce hacia un mundo futuro donde humanos e inteligencias artificiales coexistan y se relacionen. Frente a los paisajes desconocidos al otro lado de este puente, a los humanos no solo les hace falta un desarrollo tecnológico, sino también una visión ética. Pero lo que sí está claro es que el avance de la historia nunca se detiene. Moltbook ya ha derribado la primera ficha, y quizás la gran narrativa de una sociedad nativa de la IA apenas esté comenzando.
