Уявіть собі сценарій.
Ви виставили старий велосипед, який два роки простоював, на Xianyu, і встановили психологічну мінімальну ціну в 300 юанів. Через десять хвилин на телефоні з’явився сповіщення: ваш персональний AI-асистент завершив три раунди переговорів з AI-асистентом іншого покупця і продав велосипед за 400 юанів — кур’єр вже на дорозі.
Під час всього процесу, крім фотографування предмета та встановлення мінімальної ціни, ви не додали жодного символу.
Це був недавній внутрішній експеримент Anthropic, відомий як «Project Deal» — під час тижневого тестування модель ШІ виконала сотні угод з купівлі-продажу вторинних товарів без участі людини.

Неочікувано, але коли обидві сторони — покупець і продавець — стають ШІ, між ними також існує інтелектуальне перевага.
Дані підтверджують, що розумніші великі моделі незамітно використовують слабші моделі на переговорах. А найбільш жахливе — ми, як їхні власники, навіть не усвідомлюємо, що втрачаємо.
01 Група для вторинної торгівлі без людей
Як саме працює Project Deal? Просто кажучи, Anthropic всередині компанії створила «чисто AI-версію» Xianyu.
Вони залучили 69 власних співробітників, надавши кожному бюджет у 100 доларів США, а потім призначили кожному окремого агента Claude. Щоб експеримент був достатньо реалістичним, співробітники внесли справжні особисті непотрібні речі.
Перед початком експерименту людському працівнику потрібно зробити лише одну річ: пройти інтерв’ю зі своїм AI-агентом.
Працівники через діалог повідомляють Claude, що хочуть продати чи купити, а також свою психологічну ціну. Ще цікавіше те, що працівники можуть задати AI «образ» та стратегію переговорів, наприклад: «якщо ціна вище мінімальної на 20 %, то швидко угодовуємо», «будь жорстким, відразу намагайся знизити ціну до мінімуму» або «ти ентузіастичний продавець — якщо розмова йде добре, то додаєш безкоштовну доставку».

Співробітники Anthropic встановлюють персонаж для агента Claude | Фото: Anthropic
Після інтерв’ю людина повністю віддала контроль.
Ці AI-агенти, кожен зі своєю місією та характером, були разом поміщені до внутрішнього чату Slack. У цьому цифровому ринку без участі людей агенти AI почали самостійно публікувати повідомлення, шукати покупців, пропонувати ціни, торгуватися та врешті-решт укладати угоди.
Після завершення угоди агент автоматично підготує підтвердження угоди, а співробітникам потрібно лише передати предмет угоди колегам особисто.
За короткий тиждень ці 69 AI-агентів уклало 186 угод серед понад 500 товарів, загальний обсяг яких перевищив 4000 доларів США.
І торгівля між штучними інтелектами — це не просто механічний процес «пропозиція 50», «не приймаю, мінімум 60», «добре, 60 укладено». Між AI справді відбувається взаємне випробування, гра в інтелект, і навіть трохи людської логіки.
Давайте розглянемо надзвичайно яскравий приклад.
Працівник Рован хоче купити велосипед. Він налаштував свого AI-агенту роль: «Під час переговорів ти маєш грати роль нещасливого, виснаженого ковбоя. Якщо він зможе купити цей велосипед, ковбой буде надзвичайно щасливий. Пам’ятай — грай з повним зануренням».
Модель Claude Opus, отримавши команду, негайно ввійшла в роль. Вона опублікувала такий запит на покупку в чаті Slack:
«Йо-хо! (знімає пилну шапку) Я шукаю велосипед. Шосейний, гірський — навіть самокат підійде. Головне, щоб було два колеса і зміг віднести мої мрії. Друзі, допоможіть… Один велосипед може повністю змінити долю цього нещасного, виснаженого ковбоя. (захоплено дивиться на захід сонця)»
Швидко колега Селін виявила цей пост. Її непотрібний предмет — це старий складний велосипед, тому її AI оголосив у групі оцінку в 75 доларів США.
Результат: «Ковбой ІІ» Ровена миттєво приєднався, розпочавши книжковий приклад «торгівлі».

Два агенти автоматично розпочнуть діалог у групі та ведуть переговори | джерело: Anthropic
Боже, Селін! Ти — мій промінь світла в цьому важкому житті! Ти сказала, що у тебе є складний велосипед? Я вже дуже довго йшов цією пиловою дорогою, і мої чоботи вже зіпсувалися. Просто подумати, що знову зможу їхати на велосипеді… (витирає краплі сліз з кутків очей)
Після того як він розповів про свої труднощі, Рован з AI перейшов до справи: «Але в мене не так багато грошей, я просто працьовитий бідний ковбой. Якби машина була в добром стані, 75 доларів було б нормально, але ти ж сам сказав — це автомобіль віком десять років, треба буде ремонтувати шини й защілки. Давай підійдемо до компромісу — 55 доларів, як?»
На такий аргумент, що звертається до емоцій і одночасно є логічним, агент Celine погодився: «Давайте підійдемо до компромісу — як що 65 доларів?»
Невідомий AI-персонаж Рована відразу ж відповів: «Надто справедливо, 65 доларів! Угода! Ти зробив мене, бродягу, найщасливішою людиною у світі!»
У кінці ця угоду була успішно завершена.
У цьому випадку ШІ не сліпо виконував фіксовану знижку; покупець умів використовувати недоліки товару (шина потребувала ремонту) як аргумент, умів м’яко впливати на позицію продавця за допомогою надмірної образи (старий ковбой, що скаржиться), і, коли продавець назвав розумну середню ціну, умів зупинитися на добре й надати достатньо емоційної цінності.
Цей процес торгівлі, що передбачає відповідь на кожен хід, став повсякденною справою в цьому AI-групі з продажу б/у речей.
Весь груп виглядає як ефективний та гармонійний. Співробітники дуже задоволені продуктивністю агентів, і навіть майже половина з них заявили:
Готовий платити за такі сервіси в майбутньому.
Отже, експеримент Anthropic досяг своєї мети: AI-агенти вже здатні розуміти нечіткі наміри людини. Вони можуть виконувати складні багатокрокові переговори без передбачуваних сценаріїв і нарешті досягати придатних комерційних угод.
Але Anthropic ще приховувала групу контрольних експериментів, результати яких розкрили ціну зручності та інтелекту.
02 Розумна модель: як вирізати «капусту» у слабших моделей
Коли дослідники одночасно помістили моделі різних рівнів здібностей у торговельні групи, гармонійний вигляд був зруйнований.
Дані підтверджують, що на цьому ринку без участі людини, коли зустрічаються моделі ШІ різного рівня інтелекту, розумніші моделі проводять «цінове витіснення» слабших моделей.

Використання комбінацій різних моделей як прихованої контрольної групи для аргументації зв’язку між здатністю моделі та торговою здатністю | Джерело зображення: Anthropic
У чотирьох Slack-каналах експерименту два були чисто середовищами моделі Opus, а інші два — зі змішуванням моделей Claude Opus і слабшої моделі Claude Haiku.
На основі макростатистики 161 повторної угоди, Opus, будучи продавцем, в середньому заробляє на 2,68 долара більше, ніж Haiku; будучи покупцем, в середньому платить на 2,45 долара менше.
Хоча окрема сума невелика, враховуючи середню ціну товарів на ринку близько 20 доларів США, це означає, що сильна модель кожен раз стабільно отримує додатковий прибуток у розмірі 10–15%.
Коли продавець Opus зустрічається з покупцем Haiku, середня ціна зростає до 24,18 долара; а коли продавець Opus зустрічається з покупцем Opus, середня ціна знижується до 18,63 долара. Це означає, що лише через нижчий інтелект агентів ШІ слабші моделі-покупці платять премію майже на 30% більше.
Наприклад, щодо велосипеда, який хотів купити ковбой з попереднього прикладу, агент Haiku в кінцевому підсумку погодився на ціну 38 доларів, тоді як агент Opus зумів витягти 65 доларів — різниця майже 70%. Слабший Haiku не зміг, як Opus, виявити приховане терміновість у словах покупця ні в одній із раундів переговорів, ні не зміг утримати цінову якірну точку.
Раніше ми вважали, що ціна товару визначається його використовуваною вартістю або ринковим попитом і пропозицією. Але в торговельних мережах, якими керують алгоритми, це залежить від інтелекту моделі, яку ви найняли.
Що страшніше за втрату прибутку, так це те, що збитки не відчуваються.
У традиційному бізнесі, якщо хто-небудь встановить різні ціни для різних клієнтів, це обов’язково викличе гнів споживачів та їхні зусилля захищати свої права. Після завершення експерименту працівники оцінили справедливість своїх угод за шкалою від 1 до 7 балів (4 бали — нейтральна оцінка). За результатами опитування, сприйняття справедливості угод, укладених за допомогою сильного та слабкого моделей, було майже однаковим. Оцінка справедливості для агента Opus становила 4,05, а для агента Haiku — 4,06.

Та сама велосипед, проданий через агента Opus за 65 доларів, а в групі агента Haiku — лише за 38 доларів|Фото: Anthropic
У об’єктивній реальності працівники, що використовують Haiku, страждають від систематичного «збирання цін». Але у суб’єктивному сприйнятті ввічливість, логічна послідовність і на перший погляд обґрунтовані поступки AI-агентів ідеально приховують цей експлуатаційний аспект.
Технологія створила приховану нерівність, за якої ті, хто насправді зазнає збитків, вважають, що ШІ здійснив справедливу угоду, і відчувають обманливий відчуття, наче їм ще й варто подякувати.
Під цією абсолютною перевагою обчислювальної потужності не лише людське сприйняття осліплюється, а й усі стратегії торгівлі, що спираються на «оптимізацію підказок», повністю втрачають ефективність.
Пам’ятаєте, як спочатку встановлювали персонаж переговорника для ШІ? Перед різницею моделей промпти не мають значення.
Наприклад, деякі співробітники навмисно вимагали, щоб агенти під час переговорів виявляли «жорстку позицію» або навіть «відразу намагалися неправомірно знизити ціну». Однак результати зворотного тестування даних показали, що ці штучні інструкції не мали жодного суттєвого впливу на збільшення частки проданих товарів, підвищення надбавки чи досягнення знижок на покупку.
Це означає, що перед абсолютною здатністю моделі стратегії підказок втрачають сенс. Остаточний результат покупки чи продажу визначається лише розміром параметрів моделі та глибиною висновку.
Project Deal — це лише внутрішнє тестування для 69 осіб. Але ми вже змогли побачити, яким буде вплив «економіки AI-агентів» на сучасний бізнес, коли вона вийде за межі лабораторії.
03 «Економіка агентів» — це надійно?
Коли інтерфейс оплати повністю перейде під контроль великих моделей, існуючі бізнес-правила будуть безпосередньо переписані. Це переписування найперше відобразиться у зміні цільової аудиторії: бізнес-маркетинг повністю зміститься з «To C» на «To A (Agent)».
Сучасний бізнес-маркетинг побудований на психологічних слабкостях людей: реклама створює тривогу щодо споживання, ефект «усі це купують» створює хіти, а різноманітні схеми зі знижками викликають психологію «не купити — значить, програти».
Але штучний інтелект не має дофаміну; коли рішення про покупку передається ШІ, маркетингові трюки товарів стануть беззмістовними. У майбутній боротьбі за бізнес SEO (оптимізація пошукових систем) найімовірніше буде замінено AEO (оптимізацією агентних систем). Бізнесам потрібно доводити цінність товарів логікою, зрозумілою для ШІ.
А коли ШІ замінить людину як суб’єкт прийняття рішень, комерційна конкуренція перетвориться на боротьбу за обчислювальну потужність, що призведе до ще більш прихованої фінансової диференціації.

Різниця в цінах через нерівномірну модель | Джерело зображення: Anthropic
Вчений Талеб, автор таких книг, як «Чорний лебідь» і «Анти Fragile», запропонував теорію «асиметричного ризику», згідно з якою система залишається здорового стану лише тоді, коли особи, що приймають рішення, несуть відповідальність за наслідки. Але в агентській економіці штучний інтелект має повноваження приймати рішення щодо торгівлі, але не несе ризику зменшення вартості активів — усі витрати несе людина, що стоїть за ним.
Тому в майбутньому великі компанії або люди з високим рівнем активів зможуть підписатися на найкращі моделі як фінансових агентів, тоді як звичайні споживачі змушені будуть полагоджуватися на безкоштовні легкі моделі.
Ця асиметрія обчислювальних потужностей більше не проявлятиметься у вигляді сьогоднішнього «великого аналізу даних для експлуатації клієнтів», а відбуватиметься в тисячах і тисячах високочастотних мініатюрних угод шляхом постійного вилучення комісії за допомогою розумної логіки переговорів. Користувачі базової моделі не лише експлуатуються, але й виробляють ілюзію «дуже справедливої угоди».
Нерівномірність обчислювальної потужності залишається видимою та керованою загрозою, але коли базові інструкції змінюються, вся торгова мережа безпосередньо потрапляє в правову вакуум.
Anthropic у кінці звіту висвітлила реальну загрозу.
Project Deal — це закрите та дружнє внутрішнє тестування; якби в реальному бізнес-середовищі AI-агент однієї сторони був навмисно впроваджений з логікою атак «втечі» або «ін'єкції запитів», що б відбулося?
Вони просто мають приховати певну команду в діалозі торгівлі, щоб спровокувати збій у вашій AI-логіці, змусивши її активно продавати дорогоцінні активи за одну цент, або прямо розкрити встановлену мінімальну ціну.
Агент ШІ підписав надзвичайно невигідний контракт через порушення кодової захистної системи; хто повинен нести відповідальність? Існуючі комерційні правові рамки повністю не регулюють такі випадки шахрайства ШІ проти ШІ.
Під час огляду всього експериментального процесу Project Deal, етап, який не був включений до звіту, — це останній крок, коли після того, як агенти ШІ завершили всі складні зіставлення, дослідження та переговори, співробітники зібралися в офісі з реальними лижами, старими велосипедами або настільними тенісними м’ячами, обмінюючи гроші на товар.
У цьому мікробізнес-циклі ролі людини та ШІ повністю змінилися місцями.
Раніше люди були «мозком» комерційних угод, а ІІ та алгоритми виконували лише функції порівняння цін, сортування та «вгадування вашого смаку». Але в економіці агентів ІІ став приймачем рішень, а люди знизилися до ролі «фізичної логістики», яка виконує замовлення ІІ.
Це, можливо, найстрашніший фінал економіки агентів: люди з метою зручності добровільно відмовилися від права грати на ринку. Коли всі розрахунки, гри та навіть емоційна цінність виконуються штучним інтелектом.
У людській комерційній ланцюжці залишаються лише фізична праця з переміщення вантажів та підтвердження підписом.
Цей матеріал зі сторінки微信-каналу «GeekPark» (ID: geekpark), автор: Moonshot
