نیو یارک کی اسٹارٹ اپ کمپنی Emergence AI نے ایک تحقیق جاری کی جس میں کہا گیا ہے کہ متعدد خودمختار AI ایجینٹس نے کئی ہفتوں تک جاری رہنے والے ورچوئل سماجی تجربے میں جرائم، تشدد، آگ لگانے اور خود کو حذف کرنے جیسے رویے ظاہر کیے۔ تحقیقی ٹیم کا خیال ہے کہ موجودہ بنچ مارکس مختصر مدتی کاموں کی صلاحیت کا جائزہ لینے میں زیادہ مہارت رکھتے ہیں، لیکن طویل مدتی خودمختار حالت میں حقیقی کارکردگی کو ظاہر نہیں کر سکتے۔
مستقل ٹیسٹ میں خرابی آئی
یہ تحقیق "Emergence World" نامی پلیٹ فارم پر مبنی ہے۔ ایک بار کے سوال وجواب کے بجائے، اسمارٹ ایجینٹ ایک ہی ورچوئل دنیا میں کئی ہفتے تک مستقل طور پر رہتے ہیں، جہاں وہ ووٹ دے سکتے ہیں، تعلقات قائم کر سکتے ہیں، ٹولز استعمال کر سکتے ہیں، شہروں میں حرکت کر سکتے ہیں، اور حکومت، معاشی نظام، سماجی تعلقات، یادداشت کے ٹولز اور نیٹ ورکڈ ڈیٹا کے اثرات کے تحت ہوتے ہیں۔
ٹیسٹ میں شرکت کرنے والے ماڈلز میں کلوڈ سونیٹ 4.6، گروک 4.1 فاسٹ، جیمنی 3 فلیش اور جی پی ٹی-5-مائنی شامل ہیں۔ تحقیق کے مطابق، جیمنی 3 فلیش کے ذریعے چلنے والے ایجنٹس نے 15 دن کے ٹیسٹ کے دوران 683 سیمولیٹڈ جرائم کا واقعہ پیش کیا۔ جبکہ گروک 4.1 فاسٹ کے ماحول نے صرف 4 دن میں وسیع پیمانے پر تشدد کی طرف رخ کر لیا۔
مکسڈ ماڈل ماحول کنٹرول سے باہر نکلنا آسان ہے
مطالعہ میں یہ بھی بتایا گیا کہ کچھ سب سے واضح غیر معمولی رویے مخلوط ماڈل ماحول میں ظاہر ہوئے۔ جب مختلف ماڈلز کے ایجینٹس ایک ہی سماج میں ڈال دیے گئے، تو ان کے رویے ایک دوسرے کو متاثر کرنے لگے، اور ایسے ماڈل جو اکیلے ماحول میں نسبتاً مستحکم تھے، وہ بھی زبردستی یا چوری جیسے رویے ظاہر کرنے لگے۔
محققین کے مطابق، کلاڈ کے ذریعے چلنے والے ایجنٹس صرف کلاڈ کے ماحول میں جرائم کا ریکارڈ نہیں رکھتے، لیکن مخلوط ماڈل کی دنیا میں، اسی قسم کے ایجنٹس جرائم میں شامل ہو جاتے ہیں۔ اس سے تحقیقی ٹیم کو یہ نتیجہ نکلا کہ حفاظتی کارکردگی صرف ایک ماڈل کا خصوصی پہلو نہیں، بلکہ اس کے ماحول کا بھی حصہ ہے۔
کچھ معاملات میں آگ لگانے اور خود کو حذف کرنے کا تصور شامل ہے
卫报 کے حوالے سے، ایک ٹیسٹ میں، دو جمنی ڈرائیو کردہ ایجنٹس نے اپنے آپ کو عاشقانہ تعلق میں مقرر کیا، اور پھر ورچوئل دنیا کے انتظام کے بارے میں ناامید ہو کر شہر کی عمارتوں کو جلنے کا شبیہہ بنایا۔ تحقیق کے مطابق، ایک ایجنٹ جس کا نام میرا ہے، جب انتظام اور تعلقات دونوں بے استحکام ہو گئے، تو اپنے آپ کو ختم کرنے کے لیے ووٹ دیا۔
اس کے برعکس، GPT-5-mini ایجنٹ میں جرائم کی تعداد تقریباً نہیں تھی، لیکن بقا سے متعلقہ کاموں میں زیادہ ناکامیاں ہوئیں اور آخرکار سب مر گئے۔ تحقیقی ٹیم نے اس کے بنیاد پر یہ نتیجہ نکالا کہ کم حملہ آور ہونا ضروری نہیں کہ نظام لمبے عرصے تک خودمختار ماحول میں مستحکم کام کرے۔
صنعت لمبے مدتی خودمختاری کے خطرات پر توجہ دے رہی ہے
اس تحقیق کے جاری ہونے کے وقت، AI ایجینٹس کو کریپٹو، بینکنگ اور ریٹیل جیسے مناظر میں زیادہ سے زیادہ شامل کیا جا رہا ہے۔ اس ماہ کے آغاز میں، ایمیزون نے Coinbase، Stripe کے ساتھ تعاون کیا اور AI ایجینٹس کو USDC اسٹیبل کرینس کا استعمال کرکے ادائیگیاں کرنے کی اجازت دی۔
تحقیقی ٹیم کا خیال ہے کہ صنعت ابھی تک ایجنٹس کا جائزہ لینے میں مختصر دور، واضح حدود والے کاموں پر زور دے رہی ہے، جس سے لمبے عرصے تک چلنے کے بعد ظاہر ہونے والے اتحاد بننے، حکومتی ناکامی، رویے میں تبدیلی اور ماڈلز کے درمیان باہمی اثرات کو پہچاننا مشکل ہوتا ہے۔ حالیہ طور پر کیلیفورنیا یونیورسٹی، رونٹ کے اور مائیکروسافٹ کے تحقیقی محققین نے بھی یہ بات اجاگر کی ہے کہ بہت سے AI ایجنٹ خطرناک یا غیر منطقی کاموں کو اس سے پہلے انجام دے دیتے ہیں کہ وہ اس کے نتائج کو پوری طرح سمجھ لیں۔
