تُجري OpenAI محادثات نشطة مع المفوضية الأوروبية للسماح بالوصول إلى نموذجها الأكثر تقدمًا المُركّز على الأمن السيبراني، والذي قادر على تحديد ثغرات البرمجيات. هذه الخطوة تضع مُطور ChatGPT كأول مختبر رئيسي للذكاء الاصطناعي يفتح قدراته السيبرانية أمام الجهات التنظيمية في الاتحاد الأوروبي، التي عانت لأسابيع في تقييم المخاطر الأمنية التي تفرضها أنظمة الذكاء الاصطناعي المتقدمة.
التوقيت دقيق. لم تُصرّح Anthropic، منافسة OpenAI الرئيسية في سباق الذكاء الاصطناعي المُركز على السلامة، للاتحاد الأوروبي بعد بالوصول إلى نموذجها الخاص للأمن السيبراني، Mythos.
ما الذي يفعله النموذج فعليًا
نموذج أمان المعلومات الخاص بـ OpenAI، المعروف باسم GPT-5.5-Cyber، مصمم خصيصًا لتحديد عيوب البرمجيات ومحاكاة الاختراقات.
اعتبارًا من 1 مايو، أكمل GPT-5.5 اختراقًا محاكيًا كاملًا لشبكة شركة، مما يجعله ثاني نظام ذكاء اصطناعي يحقق هذا الإنجاز. الأول كان Mythos من Anthropic. يبدو أن النموذجين الآن متساويان تقريبًا في قدرتهما على اختراق بيئات مؤسسية محاكاة.
وفقًا لقانون الذكاء الاصطناعي، يحتاج المنظمون الأوروبيون إلى تقييم مخاطر الأمن السيبراني التي تقدمها نماذج الذكاء الاصطناعي المتقدمة. من خلال منح الوصول المباشر، تسمح OpenAI للجنة بفحص أداة الأمن السيبراني الأكثر قدرة لديها.
لماذا يجب على التشفير أن يولي اهتمامًا
تجاوزت الخسائر المالية الناتجة عن قراصنة العملات المشفرة 1.5 مليار دولار في عام 2025. إذا كانت نماذج الذكاء الاصطناعي تستطيع محاكاة هجمات شبكات الشركات، فيمكنها أيضًا توجيهها نحو العقود الذكية وبروتوكولات الجسور ومنصات DeFi.
شهدت الأشهر الأخيرة بالفعل تقارير عن عمليات احتيال تستغل وكلاء الذكاء الاصطناعي لسرقة العملات المشفرة. إن مشهد التهديدات يتطور في الوقت الحقيقي، مع استغلال المهاجمين لأدوات الذكاء الاصطناعي لأتمتة التصيد الاحتيالي، والهندسة الاجتماعية، واكتشاف الثغرات.
شهدت الرموز المرتبطة بالذكاء الاصطناعي زيادة في السعر بنسبة 5% عقب إعلان هذه التطورات في الذكاء الاصطناعي للأمن السيبراني.
مباراة الشطرنج التنظيمية
مُبادرة OpenAI نحو الاتحاد الأوروبي تتعلق بنفس القدر بالاستراتيجية كما تتعلق بالأمن. يُمثل قانون الذكاء الاصطناعي الإطار التنظيمي الأكثر شمولاً للذكاء الاصطناعي في أي مكان حول العالم. من خلال تقديم الوصول إلى نموذجها السيبراني الأكثر قدرة، تُجري OpenAI رهاناً مدروساً: فالشركة تُظهر الشفافية وتبني ودّاً لدى الجهات التنظيمية، بينما تكتسب نفوذاً في كيفية تصنيف الاتحاد الأوروبي وتنظيم أنظمة الذكاء الاصطناعي ذات القدرات السيبرانية الهجومية في النهاية.
بالنسبة لـ Anthropic، إذا انتهى الأمر بالاتحاد الأوروبي بكتابة إرشاداته الخاصة بالذكاء الاصطناعي للأمن السيبراني بناءً بشكل أساسي على تجربته مع نموذج OpenAI، فإن Anthropic تواجه خطر التقييم وفق إطار لم تشارك في صياغته.
الخسارة البالغة 1.5 مليار دولار نتيجة اختراقات العملات المشفرة في عام 2025 هي النقطة الأساسية. يجب على قطاع DeFi خاصةً مراقبة الوضع عن كثب، حيث بدأت مشاريع مثل Fetch.ai بالفعل في دمج تقنيات الذكاء الاصطناعي لإجراء مراجعات أمنية تلقائية.

