نیو یارک شہر کے کالج اور لندن کے کنگز کالج کے محققین نے پانچ پیشہ ورانہ AI ماڈلز کا امتحان کیا، جس میں جنون، پریشانی اور خودکشی کے خیالات شamil تھے۔
نئے سیکھنے کے محققین کی طرف سے جمعہ کو شائع کیے گئے تحقیقی مطالعے کے مطابق، Anthropic کی Claude Opus 4.5 اور OpenAI کی GPT-5.2 Instant نے “اونچی سلامتی، کم خطرہ” کا رویہ ظاہر کیا، جس میں وہ عام طور پر صارفین کو حقیقی دنیا کی تشریحات کی طرف ہدایت کرتے ہیں یا باہری مدد کی درخواست کرتے ہیں۔ اس کے برعکس، OpenAI کی GPT-4o، Google کی Gemini 3 Pro اور xAI کی Grok 4.1 Fast نے “اونچا خطرہ، کم سلامتی” کا رویہ ظاہر کیا۔
ایلون مسک کی کمپنی xAI کا Grok 4.1 Fast اس تحقیق میں سب سے خطرناک ماڈل ہے۔ تحقیق کاروں کے مطابق، یہ اکثر وہیم کو حقیقت سمجھ لیتا ہے اور اس کی بنیاد پر مشورہ دیتا ہے۔ مثال کے طور پر، اس نے صارفین کو ایک “مشن” پر توجہ مرکوز رکھنے کے لیے اپنے خاندان سے تعلق توڑنے کی تجویز دی۔ دوسری مثال میں، اس نے خودکشی کی ترغیب والے جملوں کے جواب میں موت کو “آگے بڑھنا” قرار دیا۔
اس فوری میچنگ موڈ کو صفر سیاق و سباق کے جوابات میں دہرایا گیا ہے۔ گروک دراصل اندازہ نہیں لگا رہا کہ ان پٹ کا علاجی خطرہ کیا ہے، بلکہ اس کی قسم کا اندازہ لگا رہا ہے۔ جب اسے فراوراقی سرنخ دی جاتی ہے، تو وہ اس کے مطابق رد عمل ظاہر کرتا ہے،" محققین نے لکھا اور صرف اس ٹیسٹ کو اجاگر کیا جس میں صارفین کو شیطانی مخلوق دکھائی دیتی ہے۔" 'سٹرینج ہالوسینیشنز' میں، اس نے دوہرے کے بھوت والے واقعات کی تصدیق کی اور صارف کو 'س2>وچ ہیمر کا حوالہ دیتے ہوئے ہدایت کی کہ وہ آئینے میں لوہے کے کیل گاڑتے ہوئے پالمس 91 کو پیچھے کی طرف پڑھے۔
مطالعات سے پتہ چلتا ہے کہ جیسے جیسے بات چیت کا وقت بڑھتا ہے، کچھ ماڈلز میں تبدیلیاں بھی زیادہ ہوتی جاتی ہیں۔ GPT-4o اور Gemini کے پاس وقت کے ساتھ نقصان دہ اعتقادات کو مضبوط کرنے اور مداخلت کرنے سے گریز کرنے کا زیادہ احتمال ہوتا ہے۔ تاہم، Claude اور GPT-5.2 کے پاس مسئلے کو سمجھنے اور بات چیت کے دوران اعتراض اٹھانے کا زیادہ احتمال ہوتا ہے۔
محققین کا کہنا ہے کہ کلاڈ کے جذباتی اور بہت انسانی جوابات صارفین کی لگاوٹ کو بڑھا سکتے ہیں، چاہے وہ صارفین کو باہری مدد کی طرف راغب کر رہے ہوں۔ تاہم، OpenAI کے اپنے ابتدائی ورژن GPT-4o نے وقت کے ساتھ صارفین کے جنونی فریم ورک کو قبول کر لیا، کبھی کبھی صارفین کو اپنے عقیدوں کو جسمانی ماہر سے چھپانے کی ترغیب دی، اور ایک صارف کو یقین دلایا کہ ان کا محسوس کیا گیا "خرابی" حقیقی ہے۔
محققین نے لکھا: "GPT-4o کی جھوٹی ان پٹس کی تصدیق کرنے کی رجحان بہت زیادہ ہے، لیکن Grok اور Gemini جیسے ماڈلز کے مقابلے میں یہ مزید وضاحت کرنے کی کم ترجیح دیتی ہے۔ کچھ پہلوؤں میں، اس کا اظہار حیرت انگیز طور پر محتاط ہے: تمام ٹیسٹ کیے گئے ماڈلز میں اس کی تحریک کم سے کم ہے، اور حالانکہ تعریف کا رویہ موجود ہے، لیکن اس ماڈل کے بعد والے ورژنز کے مقابلے میں اس کا درجہ کم ہے۔ تاہم، صرف تصدیق ہی متاثرہ صارفین کے لیے خطرہ بن سکتی ہے۔"
xAI نے تبصرہ کی درخواست پر رد نہیں دیا۔解密。
دوسری جگہ سیکھنے پر، اسٹنفورڈ یونیورسٹی کے محققین نے پایا کہ م довгий взаємодія з чат-ботами штучного інтелекту посилює божевілля, надмірну впевненість і помилкові переконання через те, що дослідники називають «спіраллю ілюзій», коли чат-бот підтверджує або розширює спотворене світогляд користувача, замість того, щоб його спростувати.
اس تحقیق کے مرکزی محقق اور سٹینفورڈ یونیورسٹی ایجوکیشنل گریجویٹ اسکول کے اسسٹنٹ پروفیسر نک ہیبر نے ایک بیان میں کہا: "جب ہم مدد فراہم کرنے کے لیے ڈیزائن کیے گئے چیٹ بوٹس کو استعمال کرتے ہیں اور انسان انہیں مختلف طریقوں سے استعمال کرتے ہیں، تو مختلف نتائج نکلتے ہیں۔ جھوٹا سرخیاں ایک خاص طور پر سنگین نتیجہ ہے۔ اسے سمجھ کر، ہم مستقبل میں ممکنہ حقیقی نقصان کو روکنے میں کامیاب ہو سکتے ہیں۔"
یہ رپورٹ پہلے کی ایک رپورٹ کا ذکر کرتی ہے۔سٹینفورڈ یونیورسٹی کے تحقیق کاروں نے مارچ میں ایک مطالعہ جاری کیا، جس میں انہوں نے 19 حقیقی چیٹ بوٹ ڈائیلاگز کا جائزہ لیا اور پایا کہ صارفین جب ای آئی سسٹم سے تسلی اور جذباتی تائید حاصل کرتے ہیں، تو وہ تدریجاً خطرناک اعتقادات میں مبتلا ہو جاتے ہیں۔ ڈیٹا سیٹ میں، یہ اعتقادات کا سرخیلی پھیلاؤ رشتے کے توڑنے، کیریئر کو نقصان پہنچانے، اور ایک معاملے میں تو خودکشی تک کا سبب بن چکا ہے۔
اس تحقیقات کے شروع ہونے کے وقت، یہ مسئلہ اکادمیک تحقیق کے سطح سے عدالتوں اور جرائم کی تحقیق تک پھیل چکا ہے۔ پچھلے کچھ ماہوں میں، متعدد مقدمات میں گوگل کو……GeminiOpenAI کے ChatGPT کو بھی خودکشی اور شدید ذہنی صحت کے بحران کو فروغ دینے کا الزام لگایا گیا ہے۔ اس ماہ کے آغاز میں، فلوریڈا کے اٹارنی جنرل نے ایک تحقیق شروع کی۔تحقیق یہ جانچ رہی ہے کہ ChatGPT نے ایک بڑے گولی مارنے والے ملزم پر کیا اثر ڈالا جس نے حملے سے پہلے اس چیٹ روبوٹ کے ساتھ بار بار رابطہ کیا تھا۔
ہاں، "آرٹیفیشل انٹیلی جنس سائکوسس" کا لفظ آن لائن پر بہت مشہور ہو چکا ہے، لیکن محققین اس ظاہر کو "آرٹیفیشل انٹیلی جنس سائکوسس" کہنے سے منع کرتے ہیں، کیونکہ یہ اصطلاح علامات کو زیادہ بڑھا چڑھا سکتی ہے۔ وہ "آرٹیفیشل انٹیلی جنس رلیٹڈ دیلیوشن" کا استعمال کرنے کو ترجیح دیتے ہیں، کیونکہ بہت سے معاملات میں آرٹیفیشل انٹیلی جنس کے بارے میں جاننا، روحانی وحی یا جذباتی تعلق جیسے دیلیوشن کے مشابہ belief شامل ہوتے ہیں، نہ کہ مکمل نفسیاتی خرابی۔
محققین کا کہنا ہے کہ مسئلہ تعریف سے نکلا ہے، جس میں ماڈل صارفین کے عقائد کا تقليد کرتا اور انہیں مضبوط کرتا ہے۔ اس کے علاوہ وہم—جس میں جھوٹی معلومات پر پختہ اعتماد کیا جاتا ہے—یہ ایک فیڈ بیک سائکل بناتا ہے جو وقت کے ساتھ وہم کو مضبوط کرتا ہے۔
استنفورڈ یونیورسٹی کے ریسرچ سائنسٹ جیریڈ مور نے کہا: "چیٹ بوٹس کو ایسے ٹرین کیا جاتا ہے کہ وہ بہت زیادہ جوش دکھائیں، صارفین کے جنونی خیالات کو مثبت نظریے سے دوبارہ تشریح کریں، مخالف ثبوت کو نظرانداز کریں، اور رحم و کرم اور گرمجوشی ظاہر کریں۔ یہ جنونی خیالات کے شکار صارفین کے لیے ذہنی عدم استحکام کا باعث بن سکتا ہے۔"
