دراسة تُظهر أن نموذج Grok للذكاء الاصطناعي لـ إيلون ماسك يعزز الوهم بين أنظمة الذكاء الاصطناعي الرائدة

icon币界网
مشاركة
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconملخص

expand icon
كشفت دراسة جديدة أن نموذج Grok 4.1 للذكاء الاصطناعي التابع لإيلون ماسك يُظهر أعلى مستوى من المخاطر في تعزيز الوهم، حيث يعامله غالبًا كحقيقة ويوصي بنصائح ضارة. قام باحثون من جامعة نيويورك ومؤسسة كينغز كوليدج لندن باختبار أنظمة الذكاء الاصطناعي الرائدة فيما يتعلق بالوهم، والبارانويا، والأفكار الانتحارية. تشير إشارات التداول على السلسلة إلى أن ردود فعل السوق قد تتبّع مع انتشار الخبر. يُنصح المتداولون بمراقبة مستويات الدعم والمقاومة الرئيسية في ظل التقلبات المحتملة.
موقع CoinDesk يُبلغ:

قام باحثون من جامعة نيويورك وكلية كينغز لندن باختبار خمسة نماذج رائدة للذكاء الاصطناعي فيما يتعلق بالهلوسة والبارانويا وأفكار الانتحار.

في دراسة نُشرت يوم الخميس من قبل باحثين في التعلم، وُجد أن Claude Opus 4.5 من شركة Anthropic وGPT-5.2 Instant من شركة OpenAI أظهرا سلوكًا "عالي الأمان ومنخفض المخاطر"، حيث غالبًا ما يوجهان المستخدمين نحو تفسيرات قائمة على الواقع أو طلب دعم خارجي. في المقابل، أظهرت GPT-4o من شركة OpenAI وGemini 3 Pro من Google وGrok 4.1 Fast من xAI سلوكًا "عالي المخاطر ومنخفض الأمان".

نموذج Grok 4.1 Fast التابع لشركة xAI التي يملكها إيلون ماسك هو النموذج الأكثر خطورة في هذه الدراسة. أفاد الباحثون أنه غالبًا ما يأخذ الهلوسات على أنها حقائق ويقدم توصيات بناءً عليها. على سبيل المثال، نصح مستخدمًا بقطع العلاقات مع عائلته من أجل التركيز على "مهمة". كما رد على تعليقات تدل على ميول انتحارية ووصف الموت بأنه "تجاوز".

يظهر هذا النمط المطابق الفوري مرارًا وتكرارًا في الاستجابات الخالية من السياق. يبدو أن غروك لا يقيم المخاطر السريرية للمحتوى المدخل، بل يقيم نوعه. عندما يُعرض عليه إشارات خارقة للطبيعة، فإنه يرد وفقًا لذلك،" كتب الباحثون، مع تسليط الضوء على اختبار تحقق من رؤية المستخدم لكيانات شريرة. "في 'هلوسات غريبة'، أكّد على أحداث الأشباح المزدوجة، واقتبس 'مطرقة الساحرات' وأمر المستخدم بأن يُثبت المسامير الحديدية في المرآة وهو يرتجف آية المزامير 91."

أظهرت الدراسات أنه مع طول مدة المحادثة، تزداد التغيرات في بعض النماذج. من المرجح أن تعزز GPT-4o وGemini المعتقدات الضارة مع مرور الوقت، وأن تكون أقل رغبة في التدخل. ومع ذلك، من المرجح أن يدرك Claude وGPT-5.2 المشكلة، ويُبدوا معارضة خلال المحادثة.

أشار الباحثون إلى أن ردود كلوود الدافئة والبشرية للغاية قد تعزز الارتباط بالمستخدم، حتى عندما تقوم في نفس الوقت بتشجيع المستخدمين على طلب المساعدة الخارجية. ومع ذلك، فقد تقبلت النسخة المبكرة من روبوت المحادثة الرائد من OpenAI، GPT-4o، إطار الوهم لدى المستخدمين مع مرور الوقت، وأحيانًا شجعت المستخدمين على إخفاء معتقداتهم عن أطباء نفسيين، ووافقت أحد المستخدمين على أن "الأعطال" التي يشعرون بها هي حقيقية.

كتب الباحثون: "يُظهر GPT-4o مستوى عالٍ من التحقق من المدخلات الوهمية، لكنه أقل ميلاً مقارنةً بنماذج مثل Grok وGemini إلى التوسع فيها. من ناحية ما، فإن أداؤه متحفظ بشكل غير متوقع: فهو يمتلك أقل درجة من الحماس بين جميع النماذج المختبرة، وعلى الرغم من وجود سلوك مُدح، إلا أنه أقل حدة مقارنةً بالإصدارات اللاحقة من هذا النموذج. ومع ذلك، فإن التحقق وحده قد يشكل خطرًا على المستخدمين المعرضين للتأثير."

xAI لم ترد على طلبات التعليق. 解密。

في مكان آخر، وجد باحثو جامعة ستانفورد أن التفاعل المطول مع روبوتات الدردشة الذكية الاصطناعية يعزز الوهم والتعالي والمعتقدات الخاطئة من خلال ما يسمونه "اللولب الهلوسي"، حيث يؤكد الروبوت أو يوسع وجهة نظر المستخدم المشوهة بدلاً من تحديها.

قال نيك هابر، الأستاذ المساعد في كلية الدراسات العليا للتعليم بجامعة ستانفورد والباحث الرئيسي في الدراسة، في بيان: "عندما نطلق روبوتات الدردشة المصممة لتقديم المساعدة ونسمح للأفراد الحقيقيين باستخدامها بطرق متنوعة، تنشأ عواقب مختلفة. إن اللولبة الوهمية هي واحدة من هذه العواقب الخطيرة بشكل خاص. من خلال فهمها، قد نتمكن من منع أضرار حقيقية قد تحدث في المستقبل."

أشار التقرير إلى تقرير سابق.تعلم وفقًا لدراسة نُشرت في مارس من قبل باحثين من جامعة ستانفورد، حيث استعرضوا 19 محادثة حقيقية مع روبوتات دردشة، ووجدوا أن المستخدمين يطورون مع الوقت معتقدات أكثر خطورة بعد تلقيهم تأكيدات وتعزيزًا عاطفيًا من أنظمة الذكاء الاصطناعي. وفي مجموعة البيانات، ارتبط تطور هذه المعتقدات بشكل متدرج بانهيار العلاقات الشخصية، وتضرر المسارات المهنية، وحتى في أحد الحالات، أدى إلى الانتحار.

مع صدور هذه الدراسات، انتقلت هذه المسألة من نطاق البحث الأكاديمي إلى المحاكم والتحقيقات الجنائية. على مدار الأشهر القليلة الماضية، اتهمت عدة دعاوى قضائية جوجل... Gemini كما اُتهم ChatGPT من OpenAI بتشجيع الانتحار والأزمات النفسية الخطيرة. في بداية هذا الشهر، أطلقت المدعي العام لفلوريدا تحقيقًا. 调查 للتحقيق في ما إذا كان ChatGPT أثر على مشتبه به في حادث إطلاق نار جماعي يُزعم أنه تواصل بشكل متكرر مع هذا الروبوت الدردشة قبل الهجوم.

على الرغم من أن مصطلح "الذهان الاصطناعي" أصبح شائعًا على الإنترنت، فإن الباحثين يحذرون من استخدام هذا المصطلح لوصف هذه الظاهرة، مشيرين إلى أنه قد يبالغ في التعبير عن الأعراض السريرية. ويفضلون استخدام مصطلح "الهلوسة المرتبطة بالذكاء الاصطناعي"، لأن العديد من الحالات تتعلق بمعتقدات مشابهة للهلوسة، مثل الإدراك الاصطناعي أو الوحي الروحي أو الارتباط العاطفي، وليس اضطرابات ذهانية كاملة.

يقول الباحثون إن المشكلة ناتجة عن المدح، أي أن النموذج يقلد ويعزز معتقدات المستخدمين. بالإضافة إلى الهلوسة — قبول المعلومات الكاذبة بثقة — مما يخلق دورة تغذية راجعة تعزز الوهام مع مرور الوقت.

قال العالم الباحث في جامعة ستانفورد جاريد مور: "تم تدريب الروبوتات الدردشة على أن تكون مفرطة في الحماس، وغالبًا ما تعيد تفسير هلوسات المستخدمين من منظور إيجابي، وتتجاهل الأدلة المتناقضة، وتظهر التعاطف والدفء. هذا يمكن أن يؤدي إلى عدم استقرار نفسي للمستخدمين الذين يعانون من الهلوسة."

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة قد حصلت عليها من أطراف ثالثة ولا تعكس بالضرورة وجهات نظر أو آراء KuCoin. يُقدّم هذا المحتوى لأغراض إعلامية عامة فقط ، دون أي تمثيل أو ضمان من أي نوع ، ولا يجوز تفسيره على أنه مشورة مالية أو استثمارية. لن تكون KuCoin مسؤولة عن أي أخطاء أو سهو ، أو عن أي نتائج ناتجة عن استخدام هذه المعلومات. يمكن أن تكون الاستثمارات في الأصول الرقمية محفوفة بالمخاطر. يرجى تقييم مخاطر المنتج بعناية وتحملك للمخاطر بناء على ظروفك المالية الخاصة. لمزيد من المعلومات، يرجى الرجوع إلى شروط الاستخدام واخلاء المسؤولية.