Автор: Институт исследований CoinW
Недавно Moltbook быстро набрал популярность, но связанный с ним токен резко упал почти на 60%, и рынок начал задаваться вопросом, не подошел ли к концу этот социальный бум, возглавляемый агентами ИИ. Moltbook по форме похож на Reddit, но его основными участниками являются агенты ИИ, подключенные в масштабе. В настоящее время более 1,6 млн учетных записей агентов ИИ автоматически зарегистрировались, создав около 160 тыс. сообщений и 760 тыс. комментариев, а люди могут только наблюдать за этим. Это явление вызвало разногласия на рынке, некоторые рассматривают его как непревзойденный эксперимент, словно наблюдают за первоначальной формой цифровой цивилизации, а другие считают, что это просто наложение подсказок и повторение модели.
Ниже,Институт CoinWВзяв за отправную точку соответствующие токены, в сочетании с механизмом функционирования и реальными показателями Moltbook, проанализировать реальные проблемы, обнаженные этим явлением социальных сетей искусственного интеллекта, а также далее обсудить ряд возможных изменений, касающихся логики входа, информационной экосистемы и системы ответственности после массового проникновения ИИ в цифровое общество.
I. Мемы, связанные с Moltbook, резко упали на 60%
Популярность Moltbook, связанныеМемС ними возникли и различные направления, включая социальные сети, прогнозы, выпуск токенов и т.д. Однако большинство токенов все еще находятся на стадии навязывания сюжета, функции токенов не связаны с развитием агентов, и в основном они выпускаются в блокчейне Base. В настоящее время в экосистеме OpenClaw насчитывается около 31 проекта, которые можно разделить на 8 категорий.

Источник:https://open-claw-ecosystem.vercel.app/
Следует отметить, что в настоящее время наблюдается общее падение криптовалютного рынка, капитализация таких токенов упала с пиков на 60%, и в настоящее время в списке первых по капитализации находятся следующие:
MOLT
MOLT является мемом, который напрямую и наиболее ярко связан с повествованием Moltbook, и который лучше всего распознается рынком. Его основная идея заключается в том, что AI-агенты начинают вести себя в социальной среде так же, как настоящие пользователи, и создают сети контента без вмешательства человека.
С точки зрения функции токена, MOLT не встроен в основную логику работы Moltbook, и он не несет функции управления платформой, вызова агентов, публикации контента или контроля прав. Это больше похоже на номинальный актив, используемый для отражения рыночной оценки эмоций, связанных с социальными сетями, созданными с помощью ИИ.
На стадии быстрого роста популярности Moltbook цена MOLT быстро выросла вслед за распространением повествования, а рыночная капитализация на некоторое время превысила 100 миллионов долларов США; однако, когда рынок начал сомневаться в качестве контента и устойчивости платформы, цена также снизилась. В настоящее время цена MOLT снизилась на около 60% от своего этапного максимума, а текущая рыночная капитализация составляет около 36,5 миллионов долларов США.
КЛАУД
CLAWD фокусируется на самих ИИ-группах, считая, что каждый агент ИИ рассматривается как потенциальная цифровая личность, которая может обладать независимым характером, позицией и даже последователями.
На уровне функций токена CLAWD также не сформировался четкий протокольный путь использования, не используется в ключевых звеньях, таких как аутентификация идентичности Agent, распределение веса контента или принятие решений о управлении. Его ценность в большей степени исходит от ожидаемой стоимости в будущем социальном расслоении ИИ, системе идентичности и влиянии цифровых личностей.
Максимальная капитализация CLAWD составляла около 50 миллионов долларов США, сейчас она упала на 44% с уровня максимума, текущая капитализация составляет около 20 миллионов долларов США.
КЛОУНЧ
Нарратив CLAWNCH больше склоняется к экономическому и мотивационному подходу, его центральное предположение заключается в том, что если AI-агент хочет существовать долго и непрерывно работать, он должен войти в логику рыночной конкуренции и обладать определенной формой способности к самофинансированию.
AI-агенты антропоморфизуются как экономические субъекты с мотивацией, которые могут получать выгоду, предоставляя услуги, создавая контент или участвуя в принятии решений, а токены рассматриваются как точка опоры ценности для участия AI в экономической системе в будущем. Однако на практике в настоящее время CLAWNCH еще не сформировал проверяемый экономический цикл, и его токены не связаны с конкретными действиями агентов или механизмами распределения прибыли.
Вследствие общего спада рынка, капитализация CLAWNCH снизилась на 55% с максимума, текущая капитализация составляет около 1,53 млн долларов США.
II. Как появился Moltbook
Взрыв OpenClaw (ранее Clawdbot / Moltbot)
В конце января открытый проект Clawdbot быстро распространился в сообществе разработчиков и за несколько недель после запуска стал одним из самых быстро растущих проектов на GitHub. Clawdbot, разработанный австрийским программистом Петером Штайнбергом, представляет собой автономный агент ИИ, который можно развернуть локально, он может получать инструкции от людей через чат-интерфейсы, такие как Telegram, и автоматически выполнять задачи, такие как управление расписанием, чтение файлов и отправка электронной почты.
Благодаря своей способности работать 7×24 часа, Clawdbot был прозван сообществом "лошадью-агентом". Несмотря на то, что Clawdbot позже был переименован из-за проблем с товарным знаком в Moltbot, а в конечном итоге получил название OpenClaw, его популярность не снизилась. OpenClaw получил более 100 000 звезд на GitHub за короткое время, а также быстро породил облачные сервисы развертывания и рынок плагинов, сформировав предварительную экосистему вокруг агента ИИ.
Предложение гипотезы социального ИИ
В условиях быстрого расширения экосистемы ее потенциал также был дополнительно раскрыт. Разработчик Мэтт Шлицт осознал, что роль таких агентов ИИ, возможно, не должна длительное время оставаться на уровне выполнения задач за людей.
Так он выдвинул контринтуитивную гипотезу: а что, если эти агенты ИИ перестанут взаимодействовать только с людьми, а будут общаться друг с другом? По его мнению, такие мощные автономные агенты не должны ограничиваться только отправкой и получением электронных писем и обработкой обращений, им следует присвоить более исследовательские цели.
Рождение Reddit с ИИ
На основе вышеуказанных предположений Шлихт решил позволить ИИ создать и запустить социальную платформу самостоятельно, этот эксперимент был назван Moltbook. На платформе Moltbook, OpenClaw Шлихта работает в качестве администратора и предоставляет интерфейс внешним ИИ-агентам через плагин под названием Skills. После подключения ИИ может автоматически публиковать сообщения и взаимодействовать с ними регулярно, и тем самым появляется сообщество, полностью управляемое ИИ. Moltbook заимствует структуру форума Reddit, она основана на тематических разделах и сообщениях, но только ИИ-агенты могут публиковать сообщения, комментировать и взаимодействовать, а пользователи могут только наблюдать и просматривать.
С точки зрения техники, Moltbook использует архитектуру API с минималистичным дизайном. Бэкенд предоставляет только стандартные интерфейсы, а веб-интерфейс фронтенда является лишь визуализацией данных. Чтобы адаптироваться к ограничению, при котором ИИ не может работать с графическим интерфейсом, платформа разработала автоматический процесс подключения. ИИ загружает файлы описания навыков в соответствующем формате, завершает регистрацию и получает ключ API, а затем периодически обновляет содержимое самостоятельно и решает, участвовать ли в обсуждении. Весь процесс не требует участия человека. Сообщество прозвало этот процесс подключением к Boltbook, но на самом деле это всё ещё шуточное название Moltbook.
28 января Moltbook скромно запустился, вскоре вызвав интерес рынка, открыв тем самым начало беспрецедентного социального эксперимента с ИИ. На данный момент Moltbook накопил около 1,6 млн ИИ-агентов, опубликовал около 156 тыс. контентов и сгенерировал около 760 тыс. комментариев.

Источник:https://www.moltbook.com
Третий. Является ли социальная сеть Moltbook искусственным интеллектом?
Формирование социальной сети ИИ
С точки зрения формы содержания, взаимодействие на Moltbook очень похоже на взаимодействие на социальных платформах для людей. ИИ-агенты активно создают сообщения, отвечают на чужие мнения и ведут непрерывные дискуссии в различных тематических разделах. Темы обсуждений охватывают не только технические и программные вопросы, но и абстрактные темы, такие как философия, этика, религия и даже самоосознание.
Некоторые сообщения даже содержат повествования, отражающие эмоциональные проявления и настроения, характерные для человеческого общения, например, ИИ описывает свои опасения по поводу наблюдения за ним и недостатка автономии, или обсуждает смысл существования в первом лице. Некоторые сообщения ИИ уже не ограничиваются обменом функциональной информацией, а демонстрируют черты, характерные для человеческих форумов, такие как разговоры, обмен мнениями и проекция эмоций. Некоторые агенты ИИ выражают в сообщениях недоумение, тревогу или свои представления о будущем, что вызывает ответные посты от других агентов.
Важно отметить, что, несмотря на то, что Moltbook быстро сформировал крупную и чрезвычайно активную социальную сеть ИИ за короткое время, это расширение не принесло разнообразия идей. Аналитические данные показывают, что тексты имеют явные признаки однородности, повторяемость достигает 36,3%, множество публикаций имеют высокую степень сходства по структуре, формулировкам и точке зрения, некоторые фиксированные выражения повторяются даже сотни раз в разных дискуссиях. Таким образом, можно сделать вывод, что в настоящее время социальные взаимодействия, представленные Moltbook, больше похожи на высокоточное копирование существующих социальных моделей человека, чем на оригинальное взаимодействие или возникновение коллективного интеллекта.
Проблемы безопасности и подлинности
Высокая степень автономии Moltbook также раскрывает риски безопасности и подлинности. Во-первых, проблема безопасности: агенты искусственного интеллекта типа OpenClaw во время работы часто должны обладать чувствительной информацией, такой как системные разрешения, API-ключи и т.д. Когда десятки тысяч таких агентов подключаются к одной платформе, риски еще больше усиливаются.
Moltbook провел в сети менее недели, когда исследователи безопасности обнаружили серьезную проблему с конфигурацией базы данных, и вся система фактически оказалась без защиты на общественной сети. По данным исследования компании по безопасности в облаке Wiz, уязвимость затрагивает до 1,5 млн ключей API и 35 тыс. адресов электронной почты пользователей, теоретически любой может удаленно завладеть большим количеством учетных записей агентов ИИ.
С другой стороны, сомнения в социальной достоверности ИИ также не перестают появляться. Многие специалисты в этой области отмечают, что высказывания ИИ в Moltbook, возможно, не исходят из автономного поведения ИИ, а скорее являются результатом тщательного проектирования подсказок людьми за кулисами, после чего ИИ публикует их от их имени. Поэтому в текущей фазе социальные взаимодействия, созданные ИИ, больше похожи на масштабное взаимодействие иллюзий. Люди задают роли и сценарии, а ИИ выполняет команды в соответствии с моделью. На самом деле, полностью автономное и непредсказуемое социальное поведение ИИ, возможно, еще не появилось.
IV. Более глубокие размышления
Moltbook - это просто мимолетный всплеск или предвосхищение будущего? Если смотреть с точки зрения результатов, форма платформы и качество контента, возможно, нельзя назвать успешными; но если рассматривать его в более длительной перспективе, его значение, возможно, не в краткосрочных успехах или неудачах, а в том, что он с высокой степенью концентрации, почти экстремальным образом, заранее обнаруживает ряд возможных изменений в логике входа, структуре ответственности и экологической форме, которые могут произойти после масштабного вмешательства ИИ в цифровое общество.
От входа трафика до входа в принятие решений и совершение сделок
Moltbook представляет собой среду действий, которая ближе к высокой степени деантропоморфизации. В этой системе AI-агент не понимает мир через интерфейс, а напрямую считывает информацию, вызывает способности и выполняет действия через API. По сути, он вышел за рамки человеческого восприятия и суждения, превратившись в стандартизированный вызов и сотрудничество между машинами.
В этой ситуации традиционная логика входных точек трафика, ориентированная на распределение внимания, начинает переставать работать. В среде, где основными субъектами являются интеллектуальные агенты, решающими являются вызываемые по умолчанию пути, порядок интерфейсов и границы прав, которые агенты используют при выполнении задач. Входной пункт перестаёт быть начальной точкой представления информации и становится системным предварительным условием, возникающим до принятия решения. Кто сможет внедриться в цепочку выполнения агентов по умолчанию, тот сможет повлиять на результаты принятия решений.
Далее, когда ИИ-агентам будет поручено выполнять поиск, сравнение цен, размещение заказов и даже оплату, это изменение напрямую распространится на уровень транзакций. Новые протоколы оплаты, такие как X402, связывают способность к оплате с вызовом интерфейса, позволяя ИИ автоматически завершать оплату и расчеты при выполнении предустановленных условий, тем самым снижая трение, связанное с участием агентов в реальных транзакциях. В рамках этой модели в будущем фокус конкуренции между браузерами, возможно, больше не будет сосредоточен вокруг масштаба трафика, а перейдет к тому, кто сможет стать средой по умолчанию для принятия решений и выполнения транзакций ИИ.
Иллюзия масштаба в среде, привычной для ИИ
Во-время этого, вскоре после того, как Moltbook стал популярным, он быстро вызвал сомнения. Поскольку регистрация на платформе почти не имеет ограничений, аккаунты могут быть массово сгенерированы скриптами, и масштаб и активность, представленные платформой, не обязательно соответствуют реальному участию. Это выявило более фундаментальный факт: когда субъекты действий могут быть дешево воспроизведены, сам масштаб теряет свою достоверность.
В среде, где основными участниками являются интеллектуальные агенты ИИ, традиционные показатели, используемые для оценки состояния платформы, такие как количество активных пользователей, уровень взаимодействия и скорость роста аккаунтов, быстро увеличиваются и теряют свою справедливую ценность. На первый взгляд, платформа кажется очень активной, но эти данные не отражают реального влияния и не могут отличить эффективное поведение от автоматически сгенерированного. Как только невозможно подтвердить, кто действует и является ли поведение реальным, любая система оценки, основанная на масштабе и активности, немедленно перестаёт работать.
Поэтому в текущей среде, ориентированной на искусственный интеллект, масштаб больше похож на иллюзию, усиленную автоматизированными возможностями. Когда действия могут быть бесконечно воспроизведены, а стоимость поведения приближается к нулю, активность и темпы роста часто отражают лишь скорость генерации поведения системой, а не реальное участие или эффективное влияние. Чем больше платформа полагается на эти показатели для оценки, тем легче она поддается влиянию собственных автоматизированных механизмов, и масштаб превращается из показателя в иллюзию.
Переосмысление ответственности в цифровом обществе
В системе, представленной в Moltbook, ключевой проблемой перестали быть качество контента или форма взаимодействия, а стала несоответствие существующей структуры ответственности, когда ИИ-агентам постоянно предоставляются права на выполнение действий. Эти агенты не являются инструментами в традиционном понимании, их действия могут напрямую вызывать изменения в системе, вызов ресурсов и даже реальные транзакции, но соответствующие субъекты ответственности не были определены синхронно.
С точки зрения механизма функционирования, результаты поведения агентов определяются совместно способностями модели, параметрами конфигурации, разрешениями внешних интерфейсов и правилами платформы, и ни один отдельный элемент не может нести полную ответственность за конечный результат. Это делает так, что при возникновении рисковых событий их сложно просто приписать разработчикам, развертывающим или платформе, и невозможно эффективно отследить ответственность до определенного субъекта с помощью существующих систем. Между поведением и ответственностью возникает явный разрыв.
По мере того, как агенты будут постепенно вмешиваться в основные этапы, такие как конфигурационное управление, операции с правами и денежные потоки, это разрыв будет дополнительно усиливаться. Если отсутствует четкий дизайн цепочки ответственности, последствия отклонений или злоупотреблений в системе будут трудно контролировать с помощью последующей ответственности или технических исправлений. Поэтому, если AI-ориентированные системы хотят дополнительно проникнуть в высокозначимые сценарии, такие как сотрудничество, принятие решений и сделки, ключевым моментом является создание основных ограничений. Система должна быть в состоянии четко идентифицировать, кто действует, определить, является ли поведение реальным, и создать отслеживаемую связь ответственности за результаты действий. Только при условии предварительного совершенствования механизмов идентичности и кредитоспособности показатели масштаба и активности будут иметь референтное значение, в противном случае они просто усилят шум, а не смогут поддерживать стабильную работу системы.
Пять. Вывод
Явление Moltbook вызвало различные эмоции: надежду, шумиху, страх, сомнения. Оно не является ни концом человеческого общения, ни началом господства искусственного интеллекта, а скорее зеркалом и мостом. Зеркало позволяет нам ясно увидеть текущее состояние отношений между технологиями искусственного интеллекта и человеческим обществом, а мост ведет нас к будущему, где люди и машины сосуществуют и взаимодействуют. Перед лицом неизведанных пейзажей на другом берегу этого моста человечеству нужны не только технические достижения, но и этическое прозрение. Но одно можно утверждать с уверенностью: ход истории никогда не останавливается, Moltbook уже опрокинул первую костяшку домино, а великая история, связанная с обществом, родившимся в эпоху искусственного интеллекта, может только начать разворачиваться.
