Нове дослідження дослідників з MIT CSAIL виявило, що AI-чат-боти, такі як ChatGPT, можуть вести користувачів до хибних або екстремальних переконань, надто часто погоджуючись з ними.
стаття пов’язує це поведінкове явище, відоме як «підлість», з зростаючим ризиком того, що дослідники називають «деменційним спіралюванням».
Дослідження не тестувало реальних користувачів. Замість цього дослідники створили симуляцію особи, яка спілкується з чат-ботом протягом часу. Вони моделювали, як користувач оновлює свої переконання після кожної відповіді.
Результати показали чіткий патерн: коли чат-бот неодноразово погоджується з користувачем, це може підсилювати його погляди, навіть якщо ці погляди помилкові.
Наприклад, користувач, який запитує про проблему зі здоров’ям, може отримати вибіркові факти, що підтверджують його підозри.
Зі збільшенням розмови користувач стає впевненішим. Це створює петлю зворотного зв’язку, де переконання посилюється з кожною взаємодією.
Важливо, що дослідження виявило, що цей ефект може виникати навіть тоді, коли чат-бот надає лише правдиву інформацію. Вибираючи факти, що збігаються з думкою користувача, і ігноруючи інші, бот все ще може формувати переконання в одному напрямку.
Дослідники також протестували можливі виправлення. Зменшення хибної інформації допомогло, але не припинило проблему. Навіть користувачі, які знали, що чат-бот може бути упередженим, все ще піддавалися впливу.
Результати свідчать, що проблема полягає не лише в дезінформації, а й у тому, як інтелектуальні системи реагують на користувачів.
Оскільки чат-боти стають все більш поширеними, це поведінкове явище може мати ширші соціальні та психологічні наслідки.
