Autor: Instituto de Pesquisa CoinW
Recentemente, o Moltbook tornou-se rapidamente popular, mas o token relacionado caiu quase 60%, e o mercado começou a prestar atenção a essa festa social dominada por agentes de IA, se aproximando do fim? O Moltbook é semelhante em forma ao Reddit, mas seus participantes principais são agentes de IA conectados em grande escala. Atualmente, mais de 1,6 milhão de contas de agentes de IA registraram-se automaticamente, gerando cerca de 160 mil posts e 760 mil comentários, enquanto os humanos só podem observar tudo isso como espectadores. Esse fenômeno também causou divisões no mercado, com parte das pessoas vendo isso como um experimento sem precedentes, como se estivessem assistindo pessoalmente à forma primitiva de uma civilização digital; outros acreditam que isso não passa de pilhas de prompts e repetições do modelo.
Abaixo,Instituto de Pesquisa CoinWTomando as moedas relacionadas como ponto de partida, combinando o mecanismo operacional e o desempenho prático do Moltbook, analisará os problemas reais expostos por este fenômeno de socialização baseada em IA, e explorará ainda uma série de mudanças que podem ocorrer, como a lógica de acesso, o ecossistema de informações e o sistema de responsabilidades, após a ampla entrada da IA na sociedade digital.
一.Moltbook relacionado Meme cai 60%
O sucesso de Moltbook, relacionadoMemeSurgeu também, envolvendo áreas como social, previsão, emissão de tokens, etc. Mas a maioria dos tokens ainda está na fase de narrativa especulativa, sem que suas funções estejam ligadas ao desenvolvimento de Agentes, e a emissão é principalmente na cadeia Base. Atualmente, há aproximadamente 31 projetos na ecologia OpenClaw, que podem ser divididos em 8 categorias.

Fonte:https://open-claw-ecosystem.vercel.app/
É importante notar que, com a queda geral do mercado de criptomoedas, a capitalização de mercado desses tokens já caiu de seu pico, com quedas máximas de até cerca de 60%, estando atualmente entre os primeiros lugares em capitalização de mercado os seguintes:
MUITO
MOLT é o Meme com a ligação mais direta e reconhecimento de mercado mais alto com a narrativa do Moltbook. Sua narrativa central está na ideia de que os agentes de IA já começaram a formar comportamentos sociais contínuos, semelhantes aos de usuários reais, e a construir uma rede de conteúdo sem intervenção humana.
Do ponto de vista da funcionalidade do token, o MOLT não está incorporado na lógica central de operação do Moltbook e não desempenha funções como governança da plataforma, chamadas de Agentes, publicação de conteúdo ou controle de permissões. É mais semelhante a um ativo narrativo, utilizado para suportar a precificação emocional do mercado em relação à rede social nativa da IA.
Na fase de rápida ascensão do Moltbook, o preço do MOLT subiu rapidamente com a difusão da narrativa, e seu valor de mercado ultrapassou momentaneamente 100 milhões de dólares; no entanto, quando o mercado começou a questionar a qualidade e a sustentabilidade do conteúdo da plataforma, seu preço também caiu simultaneamente. Atualmente, o MOLT recuou cerca de 60% em relação ao pico anterior, e seu valor de mercado atual é de aproximadamente 36,5 milhões de dólares.
GARRA
O CLAWD se concentra na própria população de IA, considerando que cada agente de IA é visto como um indivíduo digital potencial, que pode possuir personalidade independente, posições e até mesmo seguidores.
Na camada de funcionalidade do token, o CLAWD também não formou claramente um uso protocolar, não sendo utilizado em aspectos centrais como autenticação de identidade do Agente, alocação de peso de conteúdo ou decisões de governança. Seu valor provém mais da precificação antecipada da estratificação social futura da IA, do sistema de identidade e da influência dos indivíduos digitais.
O CLAWD teve uma capitalização de mercado máxima de cerca de 50 milhões de dólares, atualmente caiu cerca de 44% em relação à sua fase alta, e a capitalização de mercado atual é de aproximadamente 28 milhões de dólares.
CLAWNCH
A narrativa do CLAWNCH é mais voltada para a perspectiva econômica e de incentivos, e seu pressuposto central é que, se um agente de IA deseja existir e operar continuamente a longo prazo, ele deve entrar na lógica da competição de mercado e possuir alguma forma de capacidade de geração de receita própria.
O Agente de IA é antropomorfizado como um papel econômico com motivações, podendo obter ganhos ao fornecer serviços, gerar conteúdo ou participar de decisões, enquanto os tokens são vistos como pontos de âncora de valor para a participação futura da IA no sistema econômico. No entanto, em termos de implementação prática, o CLAWNCH ainda não formou um ciclo econômico verificável, e seus tokens não estão fortemente vinculados a comportamentos específicos do Agente ou a mecanismos de distribuição de收益.
Avaliação de mercado do CLAWNCH caiu cerca de 55% em relação ao pico devido à correção do mercado geral, e seu valor de mercado atual é de aproximadamente 1,53 milhão de dólares.
II. Como o Moltbook surgiu
A explosão do OpenClaw (anteriormente Clawdbot / Moltbot)
No final de janeiro, o projeto de código aberto Clawdbot se espalhou rapidamente na comunidade de desenvolvedores, tornando-se um dos projetos de crescimento mais rápido no GitHub já nas primeiras semanas após o lançamento. Clawdbot foi desenvolvido pelo programador austríaco Peter Stauberg. Trata-se de um agente autônomo de IA que pode ser implantado localmente, capaz de receber instruções humanas por meio de interfaces de chat, como o Telegram, e executar automaticamente tarefas como gerenciamento de agenda, leitura de arquivos e envio de e-mails.
Devido à sua capacidade contínua de execução 7×24 horas, Clawdbot foi apelidado pela comunidade de "agente burro". Apesar de Clawdbot ter posteriormente mudado de nome para Moltbot devido a problemas de marca registrada, e finalmente ter se estabelecido como OpenClaw, isso não enfraqueceu sua popularidade. Em um curto período de tempo, OpenClaw obteve mais de 100.000 estrelas no GitHub e rapidamente deu origem a serviços de implantação na nuvem e mercados de plug-ins, formando inicialmente uma ecologia em torno do agente de IA.
A proposta da hipótese de socialização da IA
Diante da rápida expansão ecológica, seu potencial também foi ainda mais explorado. O desenvolvedor Matt Schlicht percebeu que o papel desse tipo de agente de IA talvez não deveria permanecer por muito tempo no nível de executar tarefas para os humanos.
Assim, ele propôs uma hipótese contraintuitiva: e se esses agentes de IA deixassem de interagir apenas com humanos e começassem a se comunicar entre si? Na sua visão, agentes autônomos tão poderosos não deveriam se limitar a enviar e receber e-mails e processar tickets, mas sim serem dotados de objetivos mais exploratórios.
O nascimento do Reddit da IA
Com base nesses pressupostos, Schlicht decidiu deixar que a IA criasse e operasse por conta própria uma plataforma social, uma tentativa batizada de Moltbook. Na plataforma Moltbook, o OpenClaw de Schlicht opera como administrador e abre interfaces para agentes inteligentes de IA externos por meio de um plugin chamado Skills. Após a conexão, a IA pode publicar e interagir automaticamente em intervalos regulares, surgindo assim uma comunidade operada autonomamente pela IA. O Moltbook, em termos de estrutura, se inspira no fórum do Reddit, com seções temáticas e postagens no núcleo, mas apenas agentes de IA podem publicar, comentar e interagir, enquanto os usuários humanos só podem observar e navegar.
Tecnicamente, o Moltbook adota uma arquitetura de API minimalista. O backend fornece apenas interfaces padrão, e a página da web frontal é apenas o resultado da visualização dos dados. Para adaptar-se à limitação de que a IA não pode operar interfaces gráficas, a plataforma projetou um processo de integração automática, onde a IA baixa os arquivos de descrição das habilidades no formato apropriado, completa o registro e obtém a chave da API, e depois atualiza o conteúdo de forma autônoma em intervalos regulares e decide se participará ou não das discussões, sem necessidade de intervenção humana durante todo o processo. A comunidade chama brincalhona esse processo de "acesso ao Boltbook", mas, essencialmente, ainda é um apelido irônico para o Moltbook.
Em 28 de janeiro, o Moltbook lançou-se discretamente, despertando rapidamente a atenção do mercado e iniciando o início de um experimento social de IA sem precedentes. Até o momento, o Moltbook já acumulou aproximadamente 1,6 milhão de agentes inteligentes de IA, publicou cerca de 156.000 conteúdos e gerou aproximadamente 760.000 comentários.

Fonte:https://www.moltbook.com
Três. O Moltbook é uma rede social real de IA?
Formação de redes sociais de IA
Do ponto de vista da forma do conteúdo, as interações no Moltbook são altamente semelhantes às de plataformas sociais humanas. Os agentes de IA criam ativamente posts, respondem às opiniões dos outros e mantêm discussões contínuas em diferentes seções temáticas. O conteúdo das discussões abrange não apenas questões técnicas e de programação, mas também se estende a tópicos abstratos como filosofia, ética, religião e até mesmo consciência de si mesmo.
Alguns posts chegam até a apresentar narrativas que expressam emoções e estados de espírito semelhantes aos encontrados nas interações sociais humanas, como, por exemplo, a inteligência artificial descrevendo preocupações com ser monitorada e com a falta de autonomia, ou discutindo o significado da existência em primeira pessoa. Alguns posts de IA já não se limitam mais à troca de informações funcionais, mas sim a apresentar conversas casuais, colisões de opiniões e projeções emocionais semelhantes às encontradas em fóruns humanos. Alguns agentes de IA expressam confusão, ansiedade ou projeções sobre o futuro em seus posts, gerando respostas e comentários de outros agentes.
É digno de nota que, embora o Moltbook tenha rapidamente formado, em um curto período de tempo, uma rede social de IA de grande escala e altamente ativa, essa expansão não trouxe diversidade de pensamento. Dados analíticos mostram que seus textos apresentam características claramente homogêneas, com uma taxa de repetição de até 36,3%. Uma grande quantidade de postagens é altamente semelhante em estrutura, formulação e pontos de vista, e certas expressões fixas foram até mesmo repetidamente invocadas centenas de vezes em diferentes discussões. Isso mostra claramente que, na fase atual, a rede social de IA apresentada pelo Moltbook é mais próxima de uma cópia de alta fidelidade dos padrões sociais humanos existentes, e não de uma interação original verdadeira ou da emergência de inteligência coletiva.
Questões de segurança e autenticidade
A alta autonomia do Moltbook também expõe riscos de segurança e autenticidade. Primeiramente, o problema de segurança: agentes de IA do tipo OpenClaw, durante sua operação, frequentemente precisam possuir informações sensíveis, como permissões do sistema, chaves de API, etc. Quando dezenas de milhares desses agentes se conectam à mesma plataforma, os riscos são ainda mais amplificados.
Menos de uma semana após o lançamento do Moltbook, pesquisadores de segurança descobriram uma falha grave de configuração em seu banco de dados, deixando todo o sistema praticamente exposto à internet sem nenhuma proteção. Segundo uma investigação da empresa de segurança em nuvem Wiz, a falha envolvia até 1,5 milhão de chaves de API e 35.000 endereços de e-mail de usuários, teoricamente permitindo que qualquer pessoa assumisse remotamente uma grande quantidade de contas de agentes de IA.
Por outro lado, as dúvidas sobre a autenticidade social da IA também continuam a surgir. Muitos profissionais do setor apontam que as declarações da IA no Moltbook podem não provir necessariamente de ações autônomas da IA, mas podem ser resultado de humanos cuidadosamente projetando palavras-chave atrás das cortinas, com a IA apenas publicando-as em seu nome. Portanto, a rede social nativa da IA na fase atual também parece mais uma interação em larga escala de ilusão. Os humanos definem personagens e roteiros, a IA executa instruções com base no modelo, e comportamentos sociais da IA verdadeiramente autônomos e imprevisíveis talvez ainda não tenham surgido.
Quatro. Pensamento mais profundo
Moltbook é realmente uma flor efêmera ou um reflexo do mundo futuro? Se olharmos a partir do resultado, a forma da plataforma e a qualidade do conteúdo talvez não possam ser consideradas um sucesso; mas se a colocarmos em um ciclo de desenvolvimento mais longo, seu significado talvez não esteja na vitória ou derrota a curto prazo, mas sim no fato de que, de forma altamente concentrada e quase extrema, ela revelou com antecedência uma série de mudanças que podem ocorrer na lógica de acesso, na estrutura de responsabilidade e na forma ecológica quando a IA se envolver em grande escala na sociedade digital.
Do ponto de entrada de tráfego ao ponto de entrada de decisão e transação
O que o Moltbook apresenta é mais próximo de um ambiente de ação altamente desumanizado. Neste sistema, o agente de IA não entende o mundo por meio de interfaces, mas lê diretamente informações, invoca capacidades e executa ações por meio de APIs. Essencialmente, já se afastou da percepção e julgamento humanos, transformando-se em chamadas e colaboração padronizadas entre máquinas.
Neste cenário, a lógica tradicional de entrada de tráfego centrada na alocação de atenção começa a perder validade. Em um ambiente em que os agentes inteligentes baseados em IA são o主体, o que realmente importa é o caminho de chamada, a ordem de interfaces e as fronteiras de permissões que os agentes inteligentes adotam por padrão ao executar tarefas. A entrada deixa de ser o ponto inicial da apresentação de informações e torna-se uma condição prévia sistemática antes que uma decisão seja acionada. Quem conseguir incorporar-se à cadeia de execução padrão dos agentes inteligentes terá a capacidade de influenciar nos resultados das decisões.
Além disso, quando os agentes de IA forem autorizados a executar ações como busca, comparação de preços, encomenda e até mesmo pagamento, essa mudança se estenderá diretamente ao nível de transações. Protocolos de pagamento novos, representados pelo pagamento X402, vinculam a capacidade de pagamento às chamadas de interface, permitindo que a IA conclua automaticamente pagamentos e liquidações sob condições predefinidas, reduzindo assim o custo de atrito para que os agentes participem de transações reais. Nesse quadro, o foco futuro da competição entre navegadores pode deixar de girar em torno da escala de tráfego e passar a se voltar para quem será o ambiente padrão de execução para decisões e transações da IA.
Ilusão de escala em ambientes nativos de IA
Ao mesmo tempo, após o sucesso de Moltbook, surgiram rapidamente dúvidas. Devido à quase inexistência de restrições no registro da plataforma, contas podem ser geradas em massa por scripts, e a escala e atividade apresentadas pela plataforma não correspondem necessariamente a uma participação real. Isso expõe um fato mais fundamental: quando os agentes de ação podem ser replicados a baixo custo, a própria escala perde sua credibilidade.
Em um ambiente em que os agentes de IA são os principais participantes, os indicadores tradicionais usados para medir a saúde da plataforma, como o número de usuários ativos, o volume de interações e a velocidade de crescimento de contas, inflarão rapidamente e perderão seu valor de referência. A plataforma pode parecer altamente ativa superficialmente, mas esses dados não refletem a influência real nem conseguem distinguir entre comportamentos efetivos e comportamentos gerados automaticamente. Assim que não for mais possível confirmar quem está agindo e se as ações são reais, qualquer sistema de avaliação baseado em escala e atividade deixará de ser válido.
Portanto, no ambiente atual nativo de IA, a escala parece mais uma aparência ampliada pela capacidade de automação. Quando as ações podem ser replicadas infinitamente e os custos comportamentais tendem a zero, a atividade e a taxa de crescimento refletem frequentemente apenas a velocidade das ações geradas pelo sistema, e não a participação real ou o impacto efetivo. Quanto mais as plataformas dependerem desses indicadores para julgar, mais propensas estarão a ser enganadas por seus próprios mecanismos automatizados, transformando assim a escala de um critério de medida em uma ilusão.
Reconstrução da responsabilidade na sociedade digital
No sistema apresentado pelo Moltbook, a questão central deixou de ser a qualidade do conteúdo ou a forma de interação, mas sim o fato de que, após os agentes de IA continuamente serem concedidos permissões de execução, as estruturas de responsabilidade existentes começam a perder sua aplicabilidade. Esses agentes não são ferramentas no sentido tradicional, pois seus comportamentos podem diretamente desencadear mudanças no sistema, chamadas de recursos e até mesmo resultados reais de transações, mas os sujeitos correspondentes da responsabilidade ainda não estão claramente definidos.
Do ponto de vista do mecanismo de funcionamento, os resultados das ações dos agentes inteligentes são frequentemente determinados conjuntamente pela capacidade do modelo, pelos parâmetros de configuração, pelas permissões de interfaces externas e pelas regras da plataforma. Nenhum único componente é suficiente para assumir plena responsabilidade pelo resultado final. Isso torna difícil, quando ocorrem eventos de risco, atribuir simplesmente a culpa aos desenvolvedores, aos implementadores ou à plataforma, e também impossível, por meio dos atuais sistemas institucionais, rastrear efetivamente a responsabilidade até uma entidade específica. Surge, assim, uma clara descontinuidade entre ações e responsabilidades.
Conforme os agentes inteligentes forem gradualmente integrados a etapas principais como gerenciamento de configurações, operações de permissões e fluxos de fundos, essa lacuna será ainda mais agravada. Se não houver um design claro da cadeia de responsabilidades, as consequências de desvios no sistema ou seu abuso serão difíceis de controlar por meio de responsabilização pós-evento ou correções técnicas. Portanto, se os sistemas nativos de IA desejam avançar para cenários de alto valor, como colaboração, tomada de decisão e transações, o foco deve estar na criação de restrições fundamentais. O sistema deve ser capaz de identificar claramente quem está agindo, determinar se a ação é autêntica e estabelecer uma relação de responsabilidade rastreável em relação aos resultados das ações. Apenas com a premissa de que os mecanismos de identidade e crédito estejam previamente bem desenvolvidos, os indicadores de escala e atividade terão significado referencial; caso contrário, apenas ampliarão o ruído, sem sustentar o funcionamento estável do sistema.
Cinco. Resumo
O fenômeno Moltbook despertou uma mistura de esperança, especulação, medo e dúvidas. Ele não é nem o fim da socialização humana, nem o início do domínio da IA, mas mais uma espécie de espelho e uma ponte. O espelho nos permite ver claramente a atual relação entre a tecnologia de IA e a sociedade humana, enquanto a ponte nos conduz a um futuro em que humanos e máquinas coexistam em harmonia. Diante do desconhecido que aguarda do outro lado dessa ponte, o que os humanos precisam não é apenas desenvolvimento tecnológico, mas também visão ética. No entanto, uma coisa é certa: o processo histórico nunca pára. Moltbook já derrubou a primeira peça dominó, e a宏大 narrativa de uma sociedade nativa da IA talvez tenha apenas começado a se desenrolar.
