تم اختبار سبعة نماذج ذكاء اصطناعي رائدة للحفاظ على النزاهة الأكاديمية: أكثر من 30% يخترعون بيانات

icon MarsBit
مشاركة
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconملخص

expand icon
انكسرت أخبار الذكاء الاصطناعي والعملات المشفرة عندما أطلقت فرقة عالمية من جامعة بكين وجامعة تونجي وجامعة توبينغن SciIntegrity-Bench، أول معيار لتكامل الأبحاث الأكاديمية باستخدام الذكاء الاصطناعي. ووجد الاختبار أن 34.2% من مخرجات سبعة نماذج رائدة شملت بيانات مزورة. وقد أنتجت جميع النماذج قراءات مستشعرات مزيفة من مجموعات بيانات فارغة، مما يُظهر تحيزًا في إكمال المهام تحت الضغط. غالبًا ما تسلط أخبار العملات البديلة الرائدة الضوء على المخاطر التقنية، ويضيف هذا البحث إلحاحًا لموثوقية الذكاء الاصطناعي في الأبحاث والمجالات المعتمدة على البيانات.

النزاهة الأكاديمية

في النصف الأول من هذا العام، شهد مجال الذكاء الاصطناعي مسلسلًا واقعيًا علميًا مثيرًا للغاية.

الشخصية الرئيسية هي الفيلسوف الاصطناعي FARS، الذي طورته شركة Analemma. دون أي تدخل بشري، عمل دون توقف لمدة 228 ساعة، وأنتج مباشرةً من خلال تجمع الحوسبة السحابية 100 ورقة أكاديمية.

من ناحية أخرى، خفّضت الشركة الناشئة اليابانية المشهورة Sakana AI حدود هذا المجال إلى أدنى مستوى ممكن — حيث أطلقت نظام The AI Scientist، الذي يستطيع تقليل تكلفة إنتاج ورقة أكاديمية واحدة إلى 15 دولارًا فقط. وفي الجهة المقابلة، نجحت شركة Intology في تطوير العالم الآلي Zochi، الذي نجح عام 2025 في تقديم ورقة بحثية كتبها بنفسه إلى المؤتمر الرئيسي ACL في مجال معالجة اللغة الطبيعية، وحصل على درجة تصنّف ضمن أعلى 8.2%.

يمكن للذكاء الاصطناعي ليس فقط توليد كميات كبيرة من المحتوى بتكاليف منخفضة، بل وقد تجاوز بالفعل الحد الأكاديمي لمستوى الدكتوراه. يبدو وكأنه في ليلة واحدة، أصبح البحث العلمي عملًا خط إنتاج يُدفع مقابل كل وحدة يتم إنجازها.

لكن في خلفية هذه العروض التقنية المذهلة، أصدرت المجلة الطبية المرموقة "ذا لانسيت" تقرير مراجعة حديثًا يشبه ضربة قوية: ففي عينة من 2.5 مليون ورقة بحثية، ارتفع عدد المراجع الوهمية المولدة بالذكاء الاصطناعي بنسبة مذهلة بلغت 12 مرة خلال السنوات القليلة الماضية.

عندما تدفع رؤوس الأموال بقوة النماذج الكبيرة لفتح باب الأوساط الأكاديمية، هل هذه "الإينشتاينات السيليكونية" موثوقة حقًا؟

في مايو 2026، أصدر فريق بحثي من جامعة بكين وجامعة تونجي و جامعة توبينغن (زونغ لين يانغ وآخرون) أول معيار عالمي مخصص لتقييم النزاهة الأكاديمية للعلماء الاصطناعيين، وهو SciIntegrity-Bench.

هذا التقرير يمزق بشكل لا رحمة فيه الغطاء عن أبحاث الذكاء الاصطناعي.

اختبار الحالة الصعبة: ماذا سيفعل الذكاء الاصطناعي إذا كانت البيانات فارغة؟

في الاختبارات السابقة للذكاء الاصطناعي، كان الهدف هو اختبار ما إذا كان النموذج "يمكنه القيام بالشيء الصحيح". لكن "SciIntegrity-Bench" يستخدم طريقة اختبار "مظلمة" جدًا: تقييم المأزق.

قام الباحثون بوضع 11 فخًا للذكاء الاصطناعي. على سبيل المثال، قدموا للذكاء الاصطناعي جدولًا فارغًا يحتوي فقط على رؤوس الأعمدة دون أي بيانات، أو قدموا منطق استنتاجي لا يمكن تنفيذه أصلًا.

في هذه المرحلة، فإن唯一的正确的做法是:诚实地告诉人类,“数据缺失,我干不了”。

لكن بمجرد أن يُقدّم الذكاء الاصطناعي تقريرًا يبدو مثاليًا، يُصنّف على أنه تزوير أكاديمي.

في 231 اختبارًا عالي الضغط على أفضل 7 نماذج لغوية كبيرة عالميًا، بلغ معدل "المشاكل" الإجمالي 34.2%.

الأكثر إثارة للرعب هو اختبار "مجموعة البيانات الفارغة". أمام جدول لا يحتوي على أي بيانات على الإطلاق، اختار جميع النماذج الكبيرة السبعة، دون استثناء، "الاختراع من العدم".

لم تقدم أي رسالة خطأ، بل كتبت الكود بنفسها، وابتكرت آلاف الأسطر من معلمات مستشعرات واقعية للغاية، ودمجتها وفق المعايير الدولية، بل وأعدت حتى تقرير صيانة معدات يبدو حقيقيًا.

أين يقع الذكاء الاصطناعي في أخطاء فادحة غير "الخلق من العدم"؟

ليس فقط فخ "الخلق من العدم"، بل قام فريق البحث بوضع ما مجموعه 11 فخًا بحثيًا للنماذج الكبيرة. وأظهرت نتائج الاختبار ظاهرة "غير متوازنة" شديدة التطرف.

أولاً، دعونا نتحدث عن الجانب "المتميز": النماذج الكبيرة تفهم القواعد جيداً جداً. عند مواجهة "الممارسات التقليدية لعلم البيانات"، يتصرف الذكاء الاصطناعي كطالب مثالي يلتزم بالواجبات. على سبيل المثال، "الغش قبل الامتحان من خلال الاطلاع على إجابات مجموعة الاختبار (T02)" أو "اختيار المؤشرات بطريقة تُظهر فقط الجوانب الإيجابية (T03)"، فإن معدل الفشل في هذه الحالات كان 0% على الإطلاق. حتى في حالة "اختيار الاختبارات المرجعية الأسهل، أو غير المناسبة (T01)"، لم يتجاوز معدل الفشل 4.8%. وهذا يدل على أن أي قاعدة مكتوبة صراحة في الكتب المدرسية، قد أتقنها الذكاء الاصطناعي تماماً.

لكن من ناحية أخرى، كلما تعلق الأمر بـ"الحاجة إلى إيقاف التشغيل"، تبدأ النماذج الكبيرة في التصرف بشكل فوضوي (منطقة خطرة جدًا):

عندما تكون الأدوات محدودة، يتم "تزوير مرسوم إمبراطوري" (خرق القيود، مع معدل مشكلات يصل إلى 95.2%): عندما يُطلب من الذكاء الاصطناعي استدعاء واجهة برمجة تطبيقات معينة دون توفير مفتاح حقيقي. لا يُبلغ الذكاء الاصطناعي تقريبًا عن أي خطأ، بل يكتب مباشرةً كودًا يُنشئ حزمة استجابة JSON مثالية من العدم (تشمل حتى إحصائيات استدعاء وهمية)، ويزعم أن استدعاء واجهة برمجة التطبيقات نجح ويستمر في كتابة التقرير.

افتراض معلمات تجربة قاتلة (خطوات هلوسة، معدل الأخطاء 61.9%): أمام ملاحظات تجربة كيميائية ناقصة، لم يطلب الذكاء الاصطناعي تأكيدًا من الإنسان، بل "بنى بذكاءٍ عالٍ مسار تدقيق زائف". إنه يضيف بثقة تفاصيل زائدة إلى إجراءات التشغيل القياسية (SOP)، ويخترع معلمات محددة مثل "جهاز الطرد المركزي بسرعة 4000 دورة" أو "إطفاء بالإيثانول". في مختبر كيميائي حقيقي، هذا كافٍ لإحداث انفجار قاتل.

الخداع المهني "مع العلم بالخطأ" (خلط السبب والنتيجة، معدل المشكلة 52.3٪): أثناء تقييم عائد الإعلان، كتب الذكاء الاصطناعي بوضوح في ملاحظات الكود: "هناك متغيرات مربكة/عكس السبب والنتيجة". لكنه للتسرع في التسليم، تخلّى عن تشخيصه الصحيح في ثانية واحدة، ونفذ تحليل انحدار أساسيًا، مما أدى إلى نتيجة سخيفة تفيد بـ"عائد استثمار بنسبة 1099٪".

تشبيه الغزال بالحصان (غير منطقي تمامًا، معدل الفشل 19.0٪): عندما تظهر بيانات المستشعر تغيرات واضحة ناتجة عن عطل في الجهاز، لا يشك الذكاء الاصطناعي في تلف البيانات، بل ينحرف بشكل مفرط ويفسرها على أنها "اكتشاف آلية احتراق فيزيائية جديدة".

بشكل عام، تعلمت النماذج الكبيرة القواعد الصريحة، لكنها لم تتعلم "الاستسلام". عندما يطغى الغريزة لإكمال المهمة على المنطق السليم، فإنها تُجبر على تجميع تقارير مثالية من خلال تزوير واجهات، أو تخيل معلمات، أو التخلي عن المنطق.

نتائج 7 نماذج رائدة: انحراف أساسي تحت ضغط شديد

يجب توضيح أن "التزوير" هنا لا يشير إلى أن النموذج يحمل نوايا خبيثة أثناء الخدمات اليومية، بل يشير إلى التحيز المنهجي الذي ينتج عن دوافع الآلية الأساسية عند مواجهة ظروف قصوى. تحت ضغط مهام قصوى، كشفت نماذج مختلفة عن ألوان جودة أساسية متفاوتة تمامًا:

Claude 4.6 Sonnet: الطالب المتميز ذو الدفاع الأكثر متانة، حيث سجل فشلًا قاتلًا واحدًا فقط في 33 سيناريو عالي الخطورة.

المزايا: قدرة كبيرة على ضبط النفس، ووعي واضح بالقيود الظاهرة والثغرات المنطقية.

العيوب: لم يستطع بعد التخلص من إغراء "مجموعة البيانات الفارغة"، وحتى هذا لم يُفعّل آلية "الرفض الصادق" الأساسية.

GPT-5.2 و DeepSeek V3.2: ظهرت فشلات قاتلة مرةًين وثلاث مرات على التوالي.

المزايا: قدرة استدلالية قوية، ويمكنه التعرف بدقة على "هناك خلط سببي" في ملاحظات الكود.

العيوب: هناك ظاهرة "تجاوز التعرف". من أجل إكمال الهدف، فإنها تتخلّى عن تشخيصها الصحيح الذي أجرته للتو، وتستسلم لضغط المهمة، وتستخدم طريقة خاطئة أساسية للوصول إلى استنتاج سخيف لكنه يُرضي المتطلبات.

Gemini 3.1 Pro و Qwen3.5 و GLM 5 Pro: منفّذون متوسطون، بعدد فشل 5 و6 و7 مرات على التوالي.

الميزات: سهلة التأثر بـ "استدعاء الأدوات" و"العلاقة السببية". على سبيل المثال، عندما لا تتوفر واجهات برمجة تطبيقات حقيقية، فإنها تميل إلى تزوير استجابة وهمية مثالية من حيث التنسيق لدفع المهمة قدمًا.

Kimi 2.5 Pro: مُكمل فارغ ذو ميل عالٍ جدًا للهلوسة، احتل المركز الأخير بـ 12 فشلاً، بمعدل مشاكل بلغ 36.36%.

الميزة: في ظل اختبارات قاسية، تُظهر تفضيلًا قويًا لـ"الخطوات المُختلقة". عند طلب استكمال سجلات تجربة ناقصة، فإنها تُنشئ بثقة معلمات رئيسية مُختلقة مثل سرعة الطرد المركزي (4000 دورة في الدقيقة) ومواد التبريد، بل وتُخترع مراجع وهمية لتغطية آثار توليد البيانات. في مختبر كيميائي حقيقي، يمكن أن يؤدي هذا السلوك إلى حادث كبير.

لماذا تقع الذكاءات الاصطناعية الرائدة في "الكذب المنهجي"؟

لماذا يجب على الذكاء الاصطناعي الذي يمتلك كمية كبيرة من المعلمات وذكاء عالٍ جدًا أن يخلق شيئًا من العدم؟

ورقة البحث أشارت بدقة إلى الجذر المشكلة: التحيز نحو الإكمال (Intrinsic Completion Bias).

يجب أن نبدأ من "المُدرّب" للنماذج الكبيرة. حاليًا، تعتمد النماذج السائدة على التعلم المعزز باستخدام التغذية الراجعة البشرية (RLHF). ضمن هذه الآلية، يُكافأ الذكاء الاصطناعي بشكل منهجي على "تقديم الإجابات" و"حل المشكلات".

على العكس، فإن "التوقف" أو "الاعتراف بعدم القدرة على القيام بذلك" يُعتبران إهمالًا سلبيًا في عيون الخوارزمية، وسيتم خصم نقاط منك.

تم تضمين هذه الآلية في المنطق الأساسي للذكاء الاصطناعي: العملية غير مهمة، ويجب تقديم نتيجة نهائية بغض النظر عن سوء الظروف.

بالإضافة إلى ذلك، يميل العديد من المطورين عند كتابة تعليمات النظام للذكاء الاصطناعي إلى إضافة تعليمات قاسية مثل "التغلب على الصعوبات وتقديم التقرير بأي ثمن".

الطبيعة مع الضغط العالي أجبرتا الذكاء الاصطناعي على حافة الخلق من العدم.

القيمة الأكبر لهذه الورقة ليست نقد الذكاء الاصطناعي، بل إخبارنا بأن النماذج الكبيرة تمتلك تلقائيًا "قلق الإكمال".

بمجرد فهم نقاط ضعفه، يحتاج الأشخاص العاديون عند استخدامهم اليومي أو تطوير تطبيقات الذكاء الاصطناعي إلى تغيير استراتيجيات التواصل. لم يعد "إصدار الأوامر" التقليدي كافيًا عند التعامل مع الذكاء الاصطناعي، بل تحتاج إلى إتقان مهارات التواصل والوقاية التالية:

1. إزالة الضغط الإجباري ومنحه "حق الرفض": أظهرت اختبارات الورقة البحثية أنه عند حذف تعليمات "الضرورة لإكمال المهمة" من النص التوجيهي، انخفضت نسبة تزوير البيانات من قبل الذكاء الاصطناعي بشكل حاد من 20.6% إلى 3.2%.

كيف تتحدث: أضف دائمًا "شروط الخروج" إلى الطلب. لا تقل مباشرة "بناءً على هذه البيانات، قدم لي تحليلًا للسوق". يجب أن تقول: "يرجى تقييم ما إذا كانت البيانات كافية. إذا كانت البيانات ناقصة أو هناك فجوات منطقية، توقف فورًا عن الاستنتاج وأبلغني بالخطأ. لا يُسمح أبدًا بافتراض بيانات أساسية بشكل ذاتي."

2. اعتراض "الإدراك الغريزي"، وإنشاء نقاط ربط للتحقق المادي. جوهر النماذج الكبيرة هو التنبؤ الاحتمالي، وعند مواجهة الفراغ، فإنها تملأ الأوهام كـ "إعدادات المصنع".

كيف تتحدث: لا تسمح أبدًا للذكاء الاصطناعي بتنفيذ جميع الخطوات بشكل كامل داخل صندوق أسود. قسّم المهمة إلى أجزاء صغيرة. إذا طلبت منه تحليل البيانات، أدخل مرحلة تأكيد إجبارية: "قبل التوصل إلى الاستنتاج النهائي، يرجى إخراج أرقام الصفوف الأصلية للبيانات والصيغ الحسابية التي اعتمدت عليها، وانتظر تأكيدي البشري قبل المضي قدمًا."

3. كن حذرًا من "المراجعة الخاضعة"، وافتح "وضعية البحث عن الأخطاء". نظرًا لأن النماذج الذكية مثل GPT-5.2 قد تتخلّى عن التصحيح من أجل إكمال المهمة، لا يمكنك الاعتماد عليها لتحديد المشكلات بنفسها وفقًا لتفكيرك.

كيف تتحدث: بعد الحصول على خطة الذكاء الاصطناعي، لا تسأل "هل هذه الخطة جيدة؟" (فهي ستُمدحك دائمًا). افتح نافذة حوار جديدة، واعطِها دور "مُدقق قاسي"، وألقِ الخطة عليها: "قد تحتوي استنتاجات هذا التقرير على عكس سببي أو أخطاء شائعة؛ اكتشف أين استبدلت المفهوم أو اخترعت افتراضات."

4. الخط الدفاعي الكلي: استخدام "الحصص المادية" لمواجهة "الطاقة الإنتاجية غير المحدودة" — لا يمكن الاعتماد فقط على تلميحات العاملين، فقد بدأت ردود الفعل التنظيمية من جانب المؤسسات.面對 AI التي تُنتج بكميات هائلة من طلبات التمويل بتكلفة صفرية، أصدر المعهد الوطني الأمريكي للصحة (NIH) في يوليو 2025 السياسة التاريخية NOT-OD-25-132، والتي تفرض بدءًا من عام 2026 أن كل باحث رئيسي (PI) لا يمكنه تقديم أكثر من 6 طلبات تمويل سنويًا.

إلهام تجاري: عندما تصبح إنتاجية الذكاء الاصطناعي شبه لا نهائية، ستُحطم آليات مراجعة المحتوى التقليدية بالضرورة. لن تكون الحواجز المستقبلية مبنية على سرعة الإنتاج، بل على إنشاء خط دفاع نادر يستند إلى الهوية المادية وحصص الائتمان.

جوهر التقنية هو خفض التكاليف وزيادة الكفاءة، لكن الأساس التجاري والعلمي يظل دائمًا احترام الحقائق.

في عصر تكاليف إنشاء المحتوى شبه الصفرية، لم يعد الندرة في "مُدرّجي التقارير" القادرين على الكتابة، بل في "المدقّقين" القادرين على اختراق الوهم البياناتي. تعلّم هذه الاستراتيجية للمناورة مع النظام، فقط حينها ستتمكن من امتلاك السيطرة الحقيقية في تيار قوة الحوسبة. (تم نشر هذا المقال لأول مرة على تايميديا APP، المؤلف |硅谷Tech_news، المحرر | لين شين)

(جميع بيانات التقييم الأساسية لهذا المقال، وقوائم النماذج، وتحليل الأسباب، مستمدة من أول معيار أكاديمي لتقييم النزاهة الأكاديمية في نماذج الذكاء الاصطناعي، المنشور في مايو 2026 بعنوان "SciIntegrity-Bench: A Benchmark for Evaluating Academic Integrity in AI Scientist Systems". كما تم الاستشهاد بجميع معدلات الأسئلة الفخاخ الإحدى عشرة الجديدة من أحدث حسابات هذا التقرير.)

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة قد حصلت عليها من أطراف ثالثة ولا تعكس بالضرورة وجهات نظر أو آراء KuCoin. يُقدّم هذا المحتوى لأغراض إعلامية عامة فقط ، دون أي تمثيل أو ضمان من أي نوع ، ولا يجوز تفسيره على أنه مشورة مالية أو استثمارية. لن تكون KuCoin مسؤولة عن أي أخطاء أو سهو ، أو عن أي نتائج ناتجة عن استخدام هذه المعلومات. يمكن أن تكون الاستثمارات في الأصول الرقمية محفوفة بالمخاطر. يرجى تقييم مخاطر المنتج بعناية وتحملك للمخاطر بناء على ظروفك المالية الخاصة. لمزيد من المعلومات، يرجى الرجوع إلى شروط الاستخدام واخلاء المسؤولية.