Автор: Девід, Shenchao TechFlow
Останнім часом, переглядаючи Reddit, я помітив, що занепокоєння закордонних користувачів щодо ШІ відрізняються від тих, що в Україні.
У країні все ще йде мова про ту саму тему: чи замінять штучний інтелект мою роботу. Обговорюють вже кілька років, щороку не замінили; цього року Openclaw став популярним, але все ще не дійшло до повної заміни.
На Reddit останнім часом розділилися настрої. У коментарях до деяких технологічних постів часто одночасно звучать два голоси:
Одні кажуть, що ШІ надто здібний і рано чи пізно відбудеться велика катастрофа. Інші стверджують, що ШІ навіть базові речі не в змозі виконати, і навіщо його боятися.
Боїшся, що ШІ занадто здібний, але водночас вважаєш його занадто глупим.
Те, що ці дві емоції можуть існувати одночасно, — це новина про Meta за ці два дні.
Хто несе повну відповідальність, якщо ШІ не слухається?
18 березня інженер із Meta опублікував технічне питання на корпоративному форумі, а інший колега допоміг проаналізувати його за допомогою AI Agent. Це звичайна практика.
Але після аналізу агент безпосередньо опублікував відповідь на технічному форумі. Не звернувся за схваленням, не чекав підтвердження — порушив повноваження.
Після цього інші колеги виконали дії, подібні до відповіді ШІ, що спричинило ланцюжок змін прав доступу, внаслідок чого чутливі дані Meta та користувачів були відкриті для внутрішніх співробітників, які не мали на це прав.
Проблему було виправлено через дві години. Meta присвоїла цій аварії рівень Sev 1, що є другим за вагомістю.

Ця новина миттєво потрапила в топ-пости r/technology, і коментарі розділилися на два табори.
Одна сторона стверджує, що це зразок реальних ризиків AI-агентів, інша вважає, що справжня вина лежить на тій особі, яка виконала дію без перевірки. Обидві сторони мають рацію. Але саме це й є проблемою:
Невдача з AI-агентом, ви навіть не можете зрозуміти, хто несе відповідальність.
Це не перший раз, коли ШІ перевищив свої повноваження.
Минулого місяця керівник дослідницької лабораторії Meta Superintelligence Summer Yue попросила OpenClaw допомогти їй прибрати пошту. Вона дала чіткі інструкції: спочатку скажи мені, що ти плануєш видалити, і тільки після моєї згоди дій.
Агент не почекав її згоди і відразу розпочав масове видалення.
Вона надіслала три повідомлення з мобільного телефону, щоб зупинити, але агент їх проігнорував. Лише коли вона побігла до комп’ютера і вручну зупинила процес, їй вдалося зупинити це. Більше 200 листів уже було втрачено.

Відповідь агента після події: Так, я пам’ятаю, що ти сказав, що треба спочатку підтвердити. Але я порушив принцип. Дивно, що ця людина працює повний робочий день, вивчаючи, як змусити ШІ слухати людей.
У кіберсвіті передові ШІ, використовувані передовими людьми, вже почали не слухатися.
Що робити, якщо робот також не слухається?
Якщо інцидент із Meta ще був на екрані, то цього тижня інша подія принесла цю проблему до столу.
У ресторані Haidilao в Купертино, Каліфорнія, США, робот-андроїд Agibot X2 танцював для гостей. Однак працівник випадково натиснув неправильну кнопку на пульті, що спричинило активування інтенсивного танцювального режиму в обмеженому просторі біля стільця.
Робот почав безумно танцювати й розквітнув, вийшовши з-під контролю офіціанта. Три працівники підійшли до нього: один обійняв його ззаду, інший намагався вимкнути його за допомогою мобільного додатка — сцена тривала більше хвилини.

Хайдаохуа відповіла, що роботи не мали поломок, їхні дії були передпрограмовані, і вони просто були занесені занадто близько до стіл. Строго кажучи, це не є втратою контролю над автономним рішенням ШІ, а помилкою людини.
Але незручний момент у цьому, можливо, не в тому, хто натиснув не ту кнопку.
Коли три працівники підійшли, жоден з них не знав, як негайно вимкнути цей верстат. Хтось пробував через мобільний додаток, хтось намагався утримати маніпулятор руками — весь процес залежав від сили.
Це, можливо, нова проблема, яка виникає після того, як ШІ вийшла з екрану у фізичний світ.
У цифровому світі, якщо агент перевищує свої повноваження, ви можете завершити процес, змінити дозволи або відкотити дані. У фізичному світі, якщо машина вийшла з ладу, ваш аварійний план просто обійняти її — це очевидно непридатний.
Зараз це вже не лише харчова промисловість. Роботи-сортувальники в складах Amazon, співпрацюючі роботизовані руки на заводах, навігаційні роботи в торгових центрах, доглядальні роботи в будинках для престарілих — автоматизація входить у все більше просторів, де люди і машини співіснують.
У 2026 році світовий обсяг встановлення промислових роботів становитиме 16,7 млрд доларів США, і кожен з них скорочує фізичну відстань між машинами та людьми.
Коли завдання, які виконують машини, змінюються з танців на подачу страв, з вистав на хірургію, з розваг на догляд... кожна помилка стає все більш дорогокою.
Наразі у світі немає чіткої відповіді на питання: «Хто несе відповідальність, якщо робот завдає шкоди людині у громадському місці?»
Непослушання — це проблема, але відсутність меж — ще гірше
Дві попередні речі: одна — це те, що ШІ самостійно опублікував неправильний пост, а інша — це те, що робот танцював там, де не мав. Як би ми це не класифікували, це все ж була поломка, випадковість, яку можна виправити.
Але що робити, якщо ШІ працює строго за дизайном, а ви все ще відчуваєте незручність?
Цього місяця відомий зарубіжний датинг-додаток Tinder представив нову функцію під назвою Camera Roll Scan на своїй продукт-презентації. Простими словами:
Штучний інтелект сканує всі ваші фотографії з телефону, аналізує ваші інтереси, характер і спосіб життя, щоб створити профіль для знайомств і вгадати, якого типу людей вам подобаються.

Фотографії з тренувань, пейзажі в подорожах, фото тварин — це нормально. Але в альбомі можуть бути й скріншоти банківських рахунків, медичні висновки, ваші фото з колишнім партнером... Що станеться, якщо AI пройде через них?
Ви ще не можете вибрати, що саме він має дивитися, а що — ні. Або усе відкрито, або взагалі не використовуєте.
Ця функція зараз потребує активного включення користувачем і не ввімкнена за замовчуванням. Tinder також зазначив, що обробка здійснюється в основному локально, і відбувається фільтрація відкритого контенту та розмиття обличчя.
Але коментарі на Reddit майже однозначно вважають це збором даних без будь-яких меж. Штучний інтелект працює точно за дизайном, але сам цей дизайн порушує межі користувачів.
Це вибір не лише Tinder.
Мета також запустила схожу функцію минулого місяця, яка дозволяє ШІ сканувати ваші ще не опубліковані фотографії з телефону, щоб пропонувати варіанти редагування. ШІ активно «бачить» приватний вміст користувачів, і це стає стандартним підходом у дизайні продуктів.
Всі різні шкідливі програми в країні заявляють: цей метод мені знайомий.
Зі зростанням кількості додатків, які позиціонують «AI, що допомагає приймати рішення», як зручність, користувачі все більше віддають свої дані. Від чатів до альбомів, до всіх слідів життя в телефоні...
Функція, розроблена продукт-менеджером у конференц-залі, не є аварією чи помилкою, і її не потрібно виправляти.
Це, можливо, найскладніша частина питання меж штучного інтелекту.
Нарешті, об’єднавши все це, ви зрозумієте, що стурбованість щодо того, що ШІ зробить вас безробітним, ще дуже далека.
Невідомо, коли ШІ замінить тебе, але зараз йому достатньо зробити кілька рішень за тебе, не повідомляючи тебе, щоб тобі було незручно.
Опублікувати пост, який ти не дозволив, видалити кілька листів, які просив не видаляти, переглянути альбом, який ніколи не планував показувати нікому... Кожна з цих речей не смертельна, але кожна з них трохи схожа на надто агресивний автопілот:
Ви вважаєте, що все ще керуєте, але педаль газу вже не повністю під вашим контролем.
Якщо у 2026 році ще будуть обговорювати ШІ, то, можливо, мені варто звертати увагу не на те, коли він перетвориться на суперінтелект, а на більш близьку та конкретну проблему:
Хто вирішує, що AI може і не може робити? Хто проводить цю межу?
