OpenAIは、ソフトウェアの脆弱性を特定できる最も高度なサイバーセキュリティ専用AIモデルへのアクセスを欧州委員会に提供するため、現在積極的に協議中です。この動きにより、ChatGPTの開発元は、フロンティアAIシステムがもたらすセキュリティリスクの評価に数週間苦しんでいたEU規制当局に対して、サイバーキャパビリティを開放する初の主要なAIラボとなります。
タイミングは正確だ。安全に配慮したAI競争におけるOpenAIの主要な競合他社であるAnthropicは、まだEUに自社のサイバーセキュリティモデル「Mythos」へのアクセスを許可していない。
モデルが実際に行うこと
OpenAIのサイバーセキュリティモデルであるGPT-5.5-Cyberは、ソフトウェアの不具合を特定し、侵入をシミュレートすることを目的として設計されています。
5月1日現在、GPT-5.5は完全なシミュレートされた企業ネットワークのハッキングを達成し、そのような成果を収めたAIシステムとしては2つ目となった。最初に達成したのはAnthropicのMythosである。現在、これらの2つのモデルは、シミュレートされた企業環境への侵入能力においてほぼ同等であると見られている。
AI法に基づき、欧州の規制当局は、高度なAIモデルがもたらすサイバーセキュリティリスクを評価する必要があります。OpenAIが直接アクセスを許可することで、欧州委員会はその最も優れたサイバーツールを実際に試すことができるようになります。
なぜ暗号資産が注目されるべきか
2025年、暗号資産ハッキングによる財務的損失は15億ドルを超えました。AIモデルが企業ネットワークのハッキングをシミュレートできるなら、スマートコントラクト、ブリッジプロトコル、DeFiプラットフォームに対しても同様に適用可能です。
最近の数か月で、AIエージェントを悪用した暗号資産の詐欺事件が報告されています。攻撃者はAIツールを活用してフィッシング、ソーシャルエンジニアリング、脆弱性発見を自動化しており、脅威の状況はリアルタイムで変化しています。
これらのサイバーセキュリティAIの進展の発表後、AI関連トークンは5%価格が上昇しました。
規制のチェスゲーム
OpenAIのEUへのアプローチは、セキュリティ面だけでなく戦略面でも重要である。AI法は、世界で最も包括的な人工知能規制枠組みである。OpenAIは、最も優れたサイバーモデルへのアクセスを自発的に提供することで、透明性を示し、規制当局との良好な関係を築くとともに、攻撃的サイバー機能を持つAIシステムのEUによる分類および規制方法に影響を与えるという計算された賭けをしている。
Anthropicにとって、EUがOpenAIのモデルに対する経験を主な基準としてサイバーセキュリティAIガイドラインを策定した場合、Anthropicはその作成に一切関与していない枠組みに基づいて評価されるリスクにさらされる。
2025年に暗号資産のハッキングによって失われた15億ドルは基準値である。特にDeFiセクターは、Fetch.aiのようなプロジェクトがすでにAI技術を導入して自動セキュリティ監査を開始しているため、注目すべきである。

