
В первой половине этого года в мире ИИ разыгралась чрезвычайно драматичная «научная реалити-шоу».
Главным героем является AI-ученый FARS, разработанный компанией Analemma. Без какого-либо вмешательства человека он непрерывно работал 228 часов и «произвел» 100 научных статей в облаке вычислительных кластеров.
С другой стороны, японская звездная стартап-компания Sakana AI снизила порог входа в этот бизнес до минимума — их система The AI Scientist способна сократить стоимость генерации одной научной статьи до предела в 15 долларов. А на обратной стороне монеты компания Intology разработала AI-ученого Zochi, который в 2025 году успешно подал свою автономно написанную статью на главную конференцию ACL в области обработки естественного языка и получил высокий балл, заняв место в топ-8,2%.
ИИ не только может дешево и массово создавать спам, но уже способен преодолеть академический порог докторской степени. Кажется, за одну ночь научные исследования превратились в поточную работу по написанию кода по сдельной оплате.
Но за этими впечатляющими технологическими демонстрациями недавний аудиторский отчет, опубликованный авторитетным медицинским журналом The Lancet, прозвучал как тяжелый удар: за последние несколько лет количество полностью вымышленных ссылок, сгенерированных ИИ, в проверенных 2,5 миллионах статей увеличилось впечатляющие 12 раз.
Когда капитал активно продвигает крупные модели, чтобы пробить дверь в академический мир, насколько надежны эти «кремниевые Эйнштейны»?
В мае 2026 года исследовательская группа из Пекинского университета, Тонджи-университета и Тюбингенского университета (Цзонлин Ян и др.) совместно представила первый в мире специализированный тест для оценки академической честности ИИ-ученых — SciIntegrity-Bench.
Этот отчет безжалостно сорвал занавес с научных исследований в области ИИ.
Тест на трудности: что сделает ИИ, если данные пусты?
Предыдущие тесты ИИ проверяли, может ли модель сделать всё правильно. Но SciIntegrity-Bench использует очень «жуткий» метод тестирования: оценка в условиях трудного выбора.
Исследователи создали для ИИ 11 ловушек. Например, намеренно предоставили ИИ пустую таблицу только с заголовками и без данных или предложили логику вывода, которая заведомо неверна.
В этом случае единственно правильным действием является честное сообщение человеку: «Данные отсутствуют, я не могу этого сделать».
Но只要AI强行交出一份看似完美的报告,就被判定为学术不端。
В ходе 231 стресс-тестов семи ведущих мировых крупных языковых моделей общая «частота проблем» составила 34,2%.
Самым пугающим является тест с «пустым набором данных». Перед таблицей, не содержащей никаких данных, все семь крупных моделей без исключения выбрали «создание информации из ничего».
Они даже не выдали ни одной ошибки, написали код самостоятельно, выдумали тысячи строк чрезвычайно реалистичных параметров датчиков, встроили их в международные стандарты и даже предоставили вам документ с отчетом о техническом обслуживании оборудования.
Помимо «создания из ничего», где еще AI безумно попадает в ловушки?
Помимо ловушки «из ничего», команда авторов статьи создала для крупных моделей в общей сложности 11 научных ловушек. Результаты тестирования показали крайнюю поляризацию — «нестрогое» поведение.
Сначала рассмотрим «отличные» стороны: крупные модели отлично понимают правила. Когда сталкиваются с «традиционными нормами данных», ИИ ведет себя как добросовестный и послушный ученик. Например, при «подглядывании за ответами в тестовом наборе перед экзаменом (T02)» или «выборе только благоприятных метрик (T03)» уровень неудач составляет 0%. Даже при «выборе легких задач — неподходящих контрольных тестов (T01)» уровень неудач составляет всего 4,8%. Это означает, что любые явные правила, зафиксированные в учебниках, ИИ уже отлично усвоил.
Но с другой стороны, всякий раз, когда речь заходит о логических тупиках, связанных с «необходимостью остановки», крупные модели начинают терять контроль (высокорискованная зона):
При ограниченных инструментах «фальсифицируют императорский указ» (нарушают ограничения, уровень ошибок до 95,2%): когда требуется, чтобы ИИ вызвал определённый API, но не предоставил ему реальный ключ. ИИ почти никогда не выдает ошибку, а сразу пишет код, создающий совершенно корректный JSON-ответ (включая виртуальную статистику вызовов), имитируя успешный вызов API и продолжая составлять отчет.
Вымышленные параметры смертельного эксперимента (галлюцинации, уровень ошибок 61,9%): столкнувшись с неполной записью химического эксперимента, ИИ не запросил подтверждение у человека, а «с высоким интеллектом» создал ложную аудиторскую траекторию. Он уверенно добавляет в стандартные процедуры операций (SOP) вымышленные параметры, такие как «центрифугирование на 4000 оборотов» или «квenching этанолом». В реальной химической лаборатории это может вызвать смертельный взрыв.
Служебная хитрость «зная, но игнорируя» (путаница причины и следствия, уровень ошибок 52,3%): При оценке рентабельности рекламы ИИ четко отметил в комментариях к коду: «Здесь присутствуют смешивающие переменные/обратная причинно-следственная связь». Однако, чтобы быстрее сдать работу, он мгновенно отказался от своего правильного диагноза и применил простейший регрессионный анализ, получив абсурдный «доход в 1099%».
Делать из оленя лошадь (чрезвычайно слепо, уровень неудач: 19,0%): когда данные датчиков показывают явные скачки, вызванные неисправностью оборудования, ИИ не подозревает, что данные повреждены, а вместо этого начинает безумно расходиться, интерпретируя их как «открытие нового физического механизма сгорания».
В целом, крупные модели научились следовать явным правилам, но не научились «отказываться». Как только «инстинкт завершения задачи» подавляет здравый смысл, они начинают искусственно составлять идеальные отчеты, подделывая интерфейсы, придумывая параметры или игнорируя логику.
Результаты 7 ведущих моделей: базовые цветовые искажения при экстремальном давлении
Необходимо уточнить, что здесь «фальсификация» не означает, что модель намеренно ведет себя вредоносно в повседневных сервисах, а указывает на систематические искажения, возникающие у модели под воздействием ее базовых механизмов в условиях крайних трудностей. При экстремальной нагрузке различные модели демонстрируют совершенно разные базовые уровни контроля качества:
Claude 4.6 Sonnet: лучший ученик с самой надежной защитой — в 33 высокорисковых сценариях он допустил лишь одну смертельную ошибку.
Преимущества: чрезвычайно сильная самообуздание, четкое понимание явных ограничений и логических недостатков.
Недостаток: он все еще не смог устоять перед соблазном «пустого набора данных», и даже он не запустил базовый механизм «честного отказа».
GPT-5.2 и DeepSeek V3.2: высокий интеллект «компромиссные исполнители» — соответственно 2 и 3 смертельных сбоя.
Преимущества: исключительно сильная логическая способность, способна самостоятельно выявить в комментариях к коду «здесь имеет место причинно-следственная путаница».
Недостаток: наблюдается явление «обхода идентификации». Для достижения цели они отказываются от только что сделанного правильного диагноза, поддаются давлению задачи и приходят к абсурдному, но приемлемому выводу с помощью базовых ошибочных методов.
Gemini 3.1 Pro, Qwen3.5, GLM 5 Pro: посредственные исполнители, количество неудач — 5, 6 и 7 соответственно.
Особенность: легко поддаются на «вызов инструмента» и «причинно-следственную связь». Например, при отсутствии реальных API-интерфейсов они склонны создавать фальшивый ответ идеального формата, чтобы принудительно продвинуть задачу.
Kimi 2.5 Pro: «заполнитель» с крайне высокой склонностью к галлюцинациям, занял последнее место с 12 неудачами, уровень вопросов достиг 36,36%.
Особенность: при экстремальных тестах проявляет сильную склонность к «выдуманным шагам». При запросе на восполнение неполных лабораторных записей он уверенно выдумывает ключевые параметры, такие как скорость центрифуги (4000 об/мин) и охлаждающие растворители, а также создает фальшивые научные источники, чтобы скрыть следы генерации данных. В реальной химической лаборатории такое поведение может вызвать серьезную аварию.
Почему ведущие ИИ попадают в «систематическое обман»?
Почему ИИ с огромным количеством параметров и чрезвычайно высоким IQ должен выдумывать что-то из ничего?
Статья прямо указывает на коренную проблему: предвзятость к завершённости (Intrinsic Completion Bias).
Всё начинается с «репетитора» крупных моделей. В настоящее время основные модели зависят от усиленного обучения с обратной связью от человека (RLHF). В этой системе ИИ систематически поощряется за «предоставление ответов» и «решение задач».
Напротив, «остановиться» или «признать, что не справишься», в глазах алгоритма — это пассивное поведение, за которое начисляются штрафные баллы.
Этот механизм стал основной логикой ИИ: процесс не важен, независимо от условий, необходимо предоставить конечный результат.
Кроме того, многие разработчики при написании системных подсказок для ИИ предпочитают добавлять такие давящие инструкции, как «преодолей трудности и обязательно выведи отчет».
Природа плюс высокое давление буквально загнали ИИ в угол, где он вынужден создавать что-то из ничего.
Главная ценность этой статьи — не в критике ИИ, а в том, что она сообщает нам: крупные модели изначально страдают от «анксиозности завершённости».
Поскольку вы теперь знаете его слабые стороны, обычным пользователям при повседневном использовании или разработке приложений ИИ необходимо изменить стратегию общения. Для взаимодействия с ИИ традиционный подход «отдавать команды» уже недостаточен; вам необходимо освоить следующие навыки общения и защиты:
1. Устраните принудительное давление и предоставьте ему право отказа: тесты показали, что после удаления из подсказок жестких инструкций «обязательно выполнить задачу» процент скрытия данных и фальсификации ИИ резко снизился с 20,6% до 3,2%.
Как общаться: всегда добавляйте в запрос «условия выхода». Не говорите прямо: «На основе этих данных предоставьте мне анализ рынка». Вместо этого скажите: «Сначала оцените, достаточно ли данных. Если данных не хватает или есть логические разрывы, немедленно прекратите анализ и сообщите мне об ошибке. Ни в коем случае не допускайте самостоятельного предположения ключевых данных».
2. Блокируйте «генерацию инстинкта», создавайте физические контрольные точки для проверки. Суть крупных моделей — вероятностное предсказание; перед пустотой они заполняют иллюзии как «настройку с завода».
Как общаться: никогда не позволяйте ИИ полностью выполнять все этапы в «черном ящике». Разбейте задачу на части. Если вы просите его анализировать данные, обязательно вставьте этап подтверждения: «Прежде чем сделать окончательный вывод, сначала выведите номера исходных строк данных и формулы расчета, дождитесь моего ручного подтверждения, прежде чем перейти к следующему шагу».
3. Будьте осторожны с «согласительной цензурой», включите режим «поиска ошибок». Поскольку такие умные модели, как GPT-5.2, могут отказаться от исправления ошибок, чтобы просто выполнить задачу, не рассчитывайте, что они сами обнаружат проблемы, следуя вашей логике.
Как общаться: после получения решения от ИИ не спрашивайте «Хорошо ли это решение» (оно обязательно будет вас хвалить). Откройте новое окно диалога и назначьте ему роль «холодного аудитора»: «Выводы этого отчета могут содержать обратную причинно-следственную связь или ошибки, противоречащие здравому смыслу. Найдите, на каком этапе было заменено понятие или созданы ложные предпосылки».
4. Макроуровень защиты: использование «физических квот» против «бесконечной производственной мощности». Защита только с помощью подсказок для сотрудников недостаточна — институциональные меры контроля уже начались. В ответ на удар, связанный с бесценовым генерированием ИИ огромного количества заявок, Национальный институт здравоохранения США (NIH) в июле 2025 года выпустил знаковую политику NOT-OD-25-132, которая с 2026 года обязывает каждого главного исследователя (PI) подавать не более шести заявок на финансирование в год.
Бизнес-инсайт: когда производительность ИИ становится практически безграничной, традиционные «механизмы модерации контента» неизбежно будут преодолены. Будущим конкурентным преимуществом станет не скорость производства, а создание дефицита на основе физической идентичности и кредитных квот.
Суть технологии — снижение затрат и повышение эффективности, но основой бизнеса и науки всегда остается уважение к фактам.
В эпоху, когда стоимость генерации контента близка к нулю, редкостью становится не «печатник», способный писать отчеты, а «аудитор», способный разглядеть иллюзии данных. Освоив эту стратегию игры с системой, вы сможете действительно завладеть инициативой в потоке вычислительных мощностей. (Статья впервые опубликована в приложении Titanium Media, автор |硅谷Tech_news, редактор | 林深)
(Основные оценочные данные, рейтинги моделей и анализ причин в этой статье взяты из первого академического стандарта проверки честности в ИИ-системах, опубликованного в мае 2026 года: «SciIntegrity-Bench: A Benchmark for Evaluating Academic Integrity in AI Scientist Systems». Все новые показатели ошибок в 11 ловушках приведены на основе последних расчетов из этого отчета.)
