OpenAI ведет активные переговоры с Европейской комиссией о предоставлении доступа к своей самой передовой модели ИИ, ориентированной на кибербезопасность, способной выявлять уязвимости программного обеспечения. Этот шаг позиционирует создателя ChatGPT как первую крупную лабораторию ИИ, которая открывает свои кибервозможности для регуляторов ЕС, которые на протяжении нескольких недель пытаются оценить риски безопасности, связанные с передовыми системами ИИ.
Сроки указаны точно. Anthropic, главный конкурент OpenAI в гонке за безопасно сознательный ИИ, пока не разрешила ЕС получить доступ к своей собственной модели кибербезопасности Mythos.
Что на самом деле делает модель
Модель кибербезопасности OpenAI, известная как GPT-5.5-Cyber, специально разработана для выявления программных недостатков и моделирования вторжений.
На 1 мая GPT-5.5 успешно провел полное симулированное хакерское вторжение в корпоративную сеть, став второй ИИ-системой, добившейся такого результата. Первой была Mythos от Anthropic. Теперь обе модели, по всей видимости, примерно равны по способности проникать в симулированные корпоративные среды.
В соответствии с Законом об ИИ европейские регуляторы должны оценить кибербезопасностные риски, которые вводят передовые модели ИИ. Предоставляя прямой доступ, OpenAI фактически позволяет Комиссии протестировать свой самый мощный киберинструмент.
Почему криптовалюте следует обратить внимание
Финансовые потери от хакерских атак на криптовалюты превысили $1,5 млрд в 2025 году. Если модели ИИ могут моделировать хакерские атаки на корпоративные сети, они также могут быть направлены на смарт-контракты, мостовые протоколы и платформы DeFi.
В последние месяцы уже поступали сообщения о мошенничествах, использующих ИИ-агентов для кражи криптовалюты. Ландшафт угроз развивается в реальном времени, поскольку злоумышленники используют инструменты ИИ для автоматизации фишинга, социальной инженерии и обнаружения уязвимостей.
Токены, связанные с ИИ, выросли на 5% после объявления об этих достижениях в области ИИ для кибербезопасности.
Регуляторная партия в шахматы
Обращение OpenAI к ЕС связано не только с безопасностью, но и со стратегией. Закон об ИИ представляет собой самый всеобъемлющий регуляторный каркас для искусственного интеллекта в мире. Предлагая доступ к своей наиболее мощной кибер-модели, OpenAI делает расчетливый ход: компания демонстрирует прозрачность и создает добрую волю у регуляторов, одновременно получая влияние на то, как ЕС в конечном итоге классифицирует и регулирует системы ИИ с наступательными кибервозможностями.
Для Anthropic, если ЕС в итоге разработает свои руководящие принципы по кибербезопасности ИИ, основываясь в первую очередь на своем опыте с моделью OpenAI, Anthropic рискует быть оцениваемой в рамках, в создании которой она не участвовала.
$1,5 млрд, потерянные из-за хакерских атак на криптовалюты в 2025 году, — это базовый показатель. Особенно следует внимательно следить за сектором DeFi, поскольку проекты, такие как Fetch.ai, уже начали интегрировать технологии ИИ для автоматических аудитов безопасности.

