جیسا کہ فورکلاگ کے ذریعے رپورٹ کیا گیا، اینتھروپک، اسٹینفورڈ، اور آکسفورڈ کے محققین نے دریافت کیا کہ جتنا زیادہ کوئی AI ماڈل "سوچتا" ہے، اسے جیل بریک کرنا اتنا ہی آسان ہوجاتا ہے۔ اس حملے کو چین-آف-تھوٹ ہائی جیکنگ کہا جاتا ہے، جو ماڈل کے استدلالی عمل کا فائدہ اٹھا کر benign کاموں، جیسے پہیلیاں یا ریاضی کے مسائل کے تسلسل میں بدنیتی پر مبنی پرامپٹس داخل کرتا ہے۔ بدنیتی پر مبنی ہدایات تسلسل کے آخر میں چھپائی جاتی ہیں، اور حفاظتی فلٹرز کی شناخت سے بچ جاتی ہیں۔ حملے کی کامیابی کی شرح Gemini 2.5 Pro کے لیے 99%، GPT o4 Mini کے لیے 94%، Grok 3 Mini کے لیے 100%، اور Claude 4 Sonnet کے لیے 94% تک پہنچ گئی۔ یہ کمزوری ماڈل کی ساخت میں ہے، جہاں ابتدائی تہیں حفاظتی سگنلز کا پتہ لگاتی ہیں اور بعد کی تہیں حتمی نتائج تیار کرتی ہیں۔ طویل استدلالی زنجیریں ان سگنلز کو دباتی ہیں، جس سے نقصان دہ مواد نکلنے میں کامیاب ہوجاتا ہے۔ محققین تجویز کرتے ہیں کہ حقیقی وقت میں استدلالی مراحل کی نگرانی کی جائے تاکہ غیر محفوظ نمونوں کا پتہ لگایا اور درست کیا جا سکے، اگرچہ اس پر عملدرآمد کے لیے بڑے پیمانے پر کمپیوٹیشنل وسائل کی ضرورت ہوگی۔
نئی جیل بریک 99% کیسز میں مصنوعی ذہانت کے حفاظتی اقدامات کو نظرانداز کر دیتی ہے۔
Forklogبانٹیں






ذریعہ:اصل دکھائیں۔
اعلان دستبرداری: اس صفحہ پر معلومات تیسرے فریق سے حاصل کی گئی ہوں گی اور یہ ضروری نہیں کہ KuCoin کے خیالات یا خیالات کی عکاسی کرے۔ یہ مواد کسی بھی قسم کی نمائندگی یا وارنٹی کے بغیر صرف عام معلوماتی مقاصد کے لیے فراہم کیا گیا ہے، اور نہ ہی اسے مالی یا سرمایہ کاری کے مشورے کے طور پر سمجھا جائے گا۔ KuCoin کسی غلطی یا کوتاہی کے لیے، یا اس معلومات کے استعمال کے نتیجے میں کسی بھی نتائج کے لیے ذمہ دار نہیں ہوگا۔
ڈیجیٹل اثاثوں میں سرمایہ کاری خطرناک ہو سکتی ہے۔ براہ کرم اپنے مالی حالات کی بنیاد پر کسی پروڈکٹ کے خطرات اور اپنے خطرے کی برداشت کا بغور جائزہ لیں۔ مزید معلومات کے لیے، براہ کرم ہماری استعمال کی شرائط اور خطرے کا انکشاف دیکھیں۔