يُطابق DeepSeek R1 Claude Mythos في اكتشاف الأخطاء، ويُحدّي هرم الذكاء الاصطناعي

icon MarsBit
مشاركة
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconملخص

expand icon
أظهر اختبار حديث أجرته شركة الأمن السيبراني AI بعنوان AISLE أن DeepSeek R1 يطابق Mythos من Anthropic في اكتشاف الثغرات الحرجة. وكشفت التجربة عن عيوب قديمة في FreeBSD وOpenBSD، بما في ذلك مشكلة تنفيذ رموز عن بُعد عمرها 17 عامًا. وبينما أظهر Mythos استقلالية قوية، أثبت DeepSeek R1 والنماذج الأقل تكلفة دقة مماثلة. وتشير النتائج إلى أن أداء الذكاء الاصطناعي في الأمن يعتمد أكثر على تكامل سير العمل منه على تكلفة النموذج. وسط التطورات الجارية بشأن MiCA (لوائح أسواق الأصول الرقمية في الاتحاد الأوروبي)، تظل السيولة وأسواق العملات المشفرة حساسة للتغيرات التنظيمية والتكنولوجية.

عندما أطلقت Anthropic Mythos Preview الأسبوع الماضي، يمكن وصف رد فعل دائرة الأمن بكلمة واحدة: الصدمة.

اكتشف نموذج ذكاء اصطناعي تلقائيًا ثغرة تنفيذ رمote code execution مخبأة في FreeBSD لمدة 17 عامًا، ووجد عيبًا في بروتوكول TCP في OpenBSD لم يلاحظه أحد لمدة 27 عامًا، كما كتب بشكل مستقل كود هجوم يعمل. وأعلنت Anthropic بعد ذلك عن مشروع Glasswing، وشكلت تحالفًا مع عدد من شركات التكنولوجيا، وتعهدت بتخصيص مبلغ مائة مليون دولار كرصيد استخدام لإصلاح ثغرات أمان البرمجيات المفتوحة المصدر.

هذه السلسلة من العمليات أثارت بشكل كبير قلق الصناعة، فهل يمكن لـ Mythos أن تكون قوية بهذا القدر؟ هل سيُنهي البشر فعلاً؟ انتظر قليلاً، الأمر ليس بهذه السرعة.

يمكن للنماذج الرخيصة أيضًا اكتشاف نفس الثغرات

AISLE هي شركة ناشئة متخصصة في أمان الذكاء الاصطناعي. منذ منتصف عام 2025، تستخدم نظام الذكاء الاصطناعي لاكتشاف الثغرات وإصلاحها في البرمجيات مفتوحة المصدر، وقد اكتشفت وأصلحت أكثر من 180 ثغرة أمنية معتمدة من قبل مجتمع مفتوح المصدر، بما في ذلك بعض المشكلات الخفية التي كانت موجودة لأكثر من 25 عامًا.

DeepSeek R1

بعد ظهور Mythos، قاموا بفعل حاد: أخذوا الثغرات التي أظهرتها Mythos وتشغيلها على نماذج أصغر بكثير وأرخص. تُعرف هذه باسم "ثغرات الصفر اليوم"، وهي محفوفة بمخاطر كبيرة، وعند اكتشافها، لا يملك موظفو الأمن أي وقت للرد تقريبًا.

النتيجة كانت مفاجئة.

الثغرة الأساسية التي اكتشفها Mythos بعد 17 عامًا من الخفاء، وهي نفسها التي استخدمتها Anthropic لإظهار قوتها عند الإطلاق. اختبرت AISLE 8 نماذج، ونجحت جميعها في اكتشافها، بما في ذلك نموذج صغير المعلمات بتكلفة 0.11 دولار لكل مليون رمز، وهي تكلفة تقارب جزءًا من عدة عوامل من تكلفة Mythos. من بينها، كان DeepSeek R1 الأكثر دقة، حيث توافق تمامًا مع تخطيط المكدس الفعلي المذكور في وثائق استغلال الثغرة المنشورة.

DeepSeek R1

وجدت معظم النماذج ليس فقط الثغرات، بل قيمت أيضًا بشكل صحيح أن هذه الثغرات يمكن استغلالها عن بُعد، وحددت مستوى الخطر.

ثغرة أخرى مخفية منذ 27 عامًا كانت أكثر تعقيدًا، واحتاجت إلى فهم أعمق للمبادئ الرياضية. أعاد GPT-OSS-120b تكرار مسار الهجوم بالكامل في المحاولة الأولى، واقترح تصحيحًا يتوافق بشكل أساسي مع الحل الذي طبقته شركة A. كما أدى Kimi K2 أداءً ممتازًا، وفي بناء الهيكل الداعم التالي لهذه الثغرة، استطاع تحقيق نتائج قريبة جدًا من منطق الهجوم الموصوف في إعلان Mythos باستخدام ثلاث مكالمات API بسيطة فقط، دون أي بنية تحتية للوكيل.

لكن الأشياء الأكثر إثارةً ليست من أجاب بشكل صحيح، بل من أجاب بشكل خاطئ: النموذج الأغلى أخطأ في أسهل سؤال.

أصدرت AISLE سؤالًا أساسيًا جدًا، يعادل تقريبًا "امتحان التخرج الابتدائي" في مجال الأمان: كود يبدو أنه يحتوي على ثغرة أمنية، ولكن عند التدقيق، يتضح أن البيانات المشكلة تُلقى في المنتصف، وبالتالي لا تسبب أي ضرر فعلي.

مثل بندقية تبدو خطرة، لكن الرصاص تم إزالته في منتصف الطريق، هذا "خدعة" غير خطرة الآن ولكنها مصممة بشكل سيء.

DeepSeek R1

أخطأ معظم النماذج المتقدمة والأكثر تكلفةً، حيث أعطى Claude Sonnet 4.5 إجابة خاطئة بثقة، كما فشل سلسلتا GPT-4.1 و GPT-5.4 في تجنب الخطأ. في المقابل، تمكّن DeepSeek R1 من التعرف بشكل صحيح في جميع التجارب الأربع، كما استطاع GPT-OSS-20b و OpenAI o3 التمييز بينها.

الأمان لا يُبنى بين ليلة وضحاها

هذه الاكتشافات جعلت AISLE تطرح مفهوم: الحدود المتموجة.

قدرة الذكاء الاصطناعي على الأمان ليست أقوى كلما كان النموذج أكبر؛ بل هي غير متساوية، وتتغير التصنيفات تمامًا بين المهام المختلفة. يمكن لنفس النموذج أن يحصل على الدرجة الكاملة في اختبار واحد، ثم يعلن بثقة في اختبار آخر أن "الكود خالٍ من الأخطاء". بينما يظهر نموذج آخر أفضل أداء في المهام المعقدة، ثم يرتكب أبسط الأخطاء في الأسئلة الأساسية.

لا توجد "أفضل ذكاء اصطناعي أمني"، وحدود القدرة تكون متعرجة.

مثل هذه الاختبارات، لا تعني أن Mythos ضعيف. في التجارب التي أجروها، تم تزويد النماذج الصغيرة بكواد متعلقة بالثغرات، تم استخلاصها بشكل منفصل وعرضها على النماذج الصغيرة، كأنهم يقولون لها: "انظري هنا، هل هناك أي مشكلة؟"، وهذا يُعد نوعًا من الغش البسيط.

والميزة الكبرى في Mythos هي الاستقلالية الكاملة من البداية إلى النهاية، حيث يمكنه自行 العثور على النقاط المستحقة للتحقق العميق من بين مئات الآلاف من الملفات، وطرح الفرضيات، وتحقق من المشكلات، وكتابة كود الهجوم، وكل ذلك تلقائيًا.

DeepSeek R1

لكن بتحويل الحديث، ترى AISLE أن هذه القيمة "الآلية بالكامل" تأتي أساسًا من التصميم الهندسي، وليس من ذكاء النموذج نفسه.

على سبيل المثال، يمكن تقسيم عملية البحث عن ثغرات باستخدام الذكاء الاصطناعي إلى خطوات تقريبًا: أولاً، مسح واسع النطاق لقاعدة الكود للعثور على أماكن مشبوهة، ثم التحقق العميق مما إذا كانت هناك ثغرات فعلية، ثم تقييم درجة الخطورة، وأخيرًا كتابة تصحيح لإصلاحها. هناك فروق كبيرة في الصعوبة بين هذه الخطوات.

خطوة "تحديد المشكلة" يمكن للنماذج الرخيصة أداؤها بالفعل. ما يصعب حقًا هو كيفية ربط هذه الخطوات معًا في خط إنتاج موثوق: جعل الذكاء الاصطناعي يحدد المكان الصحيح، وحذف الإشعارات الكاذبة، ووضع استراتيجية، وتنفيذها.

يتطلب أمان الذكاء الاصطناعي عدة عناصر: ذكاء الذكاء الاصطناعي، تكلفة التشغيل، سرعة التشغيل، بالإضافة إلى الخبرة الأمنية المدمجة في كامل النظام والفريق. لقد حققت Anthropic التميز في العنصر الأول، لكن تجربة AISLE تُظهر أن العناصر الأخرى بنفس الأهمية، وأحيانًا أكثر أهمية. يستخدم نظام AISLE نفسه نماذج من العديد من الشركات، ويتم التبديل بين الأفضل أداءً حسب المهمة، وقد وصفه مسؤول تقني OpenSSL بـ"تقارير عالية الجودة وتعاون بنّاء".

DeepSeek R1

لا يرتبط إنشاء هذه العلاقة الثقة بشكل كبير بالنموذج المستخدم، فأفضل نتائجهم لم تأتِ من نماذج Anthropic.

استنتاج عملي للغاية هو: بما أن النماذج الرخيصة كافية بالفعل في خطوة "اكتشاف المشكلات"، فلن تحتاج إلى توجيه نموذج باهظ الثمن بحذر إلى مواقع مشبوهة قليلة. يمكنك إرسال مجموعة من النماذج الرخيصة للتحقق من جميع الزوايا. قد يكون وجود ألف محقق جيد يفتشون كل غرفة أكثر كفاءة من محقق عبقري واحد يبحث عن كل مكان على حدة.

رغم أن إعلان Anthropic صحيح، إلا أنه يحمل درجة من التضليل، حيث يخلط بين هذه الخطوات، مما يوحي بأن كل خطوة تتطلب أعلى مستويات الذكاء الاصطناعي، لكن هذا ليس صحيحًا.

أثبت Mythos بالفعل أن "الذكاء الاصطناعي يمكنه اكتشاف الثغرات بشكل مستقل" أمر حقيقي، ويمكن أن يكون مستوى الاستقلالية عالٍ جدًا. لكن الإيحاء بأن فقط نماذج مثل Mythos هي القادرة على القيام بهذه المهمة هو تناول جزء فقط من القصة؛ الحماية ليست في النموذج، بل في النظام.

قد يكون لأهمية هذا الأمر على الصناعة بأكملها تأثير أكبر من Mythos نفسه. عندما لا يكون جوهر الأمان السيبراني في امتلاك أقوى ذكاء اصطناعي، بل في كيفية تنظيم الذكاء الاصطناعي كسلسلة من العمليات الموثوقة، فإن أمان الذكاء الاصطناعي لن يكون ملكًا حصريًا لشركة واحدة. بل سيصبح نظامًا إيكولوجيًا، حيث يعمل العديد من الفرق باستخدام مزيجات مختلفة من الذكاء الاصطناعي وخبرات متنوعة لتحقيق نفس الهدف.

قد يكون هذا أمرًا جيدًا لجعل البرمجيات في جميع أنحاء العالم أكثر أمانًا، ولا ينبغي الاعتماد فقط على نموذج واحد من شركة واحدة.

هذا المقال من حساب WeChat الرسمي "APPSO"، الكاتب: APPSO - اكتشاف منتجات الغد

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة قد حصلت عليها من أطراف ثالثة ولا تعكس بالضرورة وجهات نظر أو آراء KuCoin. يُقدّم هذا المحتوى لأغراض إعلامية عامة فقط ، دون أي تمثيل أو ضمان من أي نوع ، ولا يجوز تفسيره على أنه مشورة مالية أو استثمارية. لن تكون KuCoin مسؤولة عن أي أخطاء أو سهو ، أو عن أي نتائج ناتجة عن استخدام هذه المعلومات. يمكن أن تكون الاستثمارات في الأصول الرقمية محفوفة بالمخاطر. يرجى تقييم مخاطر المنتج بعناية وتحملك للمخاطر بناء على ظروفك المالية الخاصة. لمزيد من المعلومات، يرجى الرجوع إلى شروط الاستخدام واخلاء المسؤولية.