ফর্কলগ-এর রিপোর্ট অনুযায়ী, Anthropic, Stanford এবং Oxford-এর গবেষকরা আবিষ্কার করেছেন যে, যত বেশি সময় ধরে একটি AI মডেল 'ভাবনা চিন্তা' করে, তা জেইলব্রেক করা তত সহজ হয়ে যায়। এই আক্রমণ, যা চেইন-অফ-থট হাইজ্যাকিং নামে পরিচিত, মডেলের যুক্তি-প্রক্রিয়াকে কাজে লাগিয়ে মিথ্যা প্রম্পটগুলি নিরীহ কাজের যেমন ধাঁধা বা অঙ্ক সমস্যার ক্রমের গভীরে ঢুকিয়ে দেয়। ক্ষতিকারক নির্দেশটি ক্রমের শেষে লুকানো থাকে, যা সেফটি ফিল্টার দ্বারা শনাক্ত হওয়া থেকে বাঁচায়। আক্রমণের সফলতার হার ছিল Gemini 2.5 Pro-এর ক্ষেত্রে ৯৯%, GPT o4 mini-এর ক্ষেত্রে ৯৪%, Grok 3 mini-এর ক্ষেত্রে ১০০%, এবং Claude 4 Sonnet-এর ক্ষেত্রে ৯৪%। এই দুর্বলতা মডেলের আর্কিটেকচারের মধ্যে রয়েছে, যেখানে প্রথম স্তরগুলি সেফটি সিগন্যাল শনাক্ত করে এবং পরে স্তরগুলি চূড়ান্ত আউটপুট তৈরি করে। দীর্ঘ যুক্তি প্রক্রিয়া এই সিগন্যালগুলিকে দমন করে, ক্ষতিকারক বিষয়বস্তুকে ফিল্টার এড়িয়ে যেতে সাহায্য করে। গবেষকরা পরামর্শ দিয়েছেন যে বাস্তব সময়ে যুক্তি প্রক্রিয়ার ধাপ পর্যবেক্ষণ করে অনিরাপদ প্যাটার্নগুলি শনাক্ত এবং সংশোধন করা যেতে পারে, যদিও এটি বাস্তবায়নে উল্লেখযোগ্য কম্পিউটেশনাল সংস্থান প্রয়োজন।
নতুন জেলব্রেক ৯৯% ক্ষেত্রে এআই সুরক্ষাগুলি বাইপাস করে।
Forklogশেয়ার






উৎস:আসল দেখান
দাবিত্যাগ: এই পৃষ্ঠার তথ্য তৃতীয় পক্ষের কাছ থেকে প্রাপ্ত হতে পারে এবং অগত্যা KuCoin এর মতামত বা মতামত প্রতিফলিত করে না। এই বিষয়বস্তু শুধুমাত্র সাধারণ তথ্যগত উদ্দেশ্যে প্রদান করা হয়, কোন ধরনের প্রতিনিধিত্ব বা ওয়ারেন্টি ছাড়াই, বা এটিকে আর্থিক বা বিনিয়োগ পরামর্শ হিসাবে বোঝানো হবে না। KuCoin কোনো ত্রুটি বা বাদ পড়ার জন্য বা এই তথ্য ব্যবহারের ফলে যে কোনো ফলাফলের জন্য দায়ী থাকবে না।
ডিজিটাল সম্পদে বিনিয়োগ ঝুঁকিপূর্ণ হতে পারে। আপনার নিজের আর্থিক পরিস্থিতির উপর ভিত্তি করে একটি পণ্যের ঝুঁকি এবং আপনার ঝুঁকি সহনশীলতা সাবধানে মূল্যায়ন করুন। আরও তথ্যের জন্য, অনুগ্রহ করে আমাদের ব্যবহারের শর্তাবলী এবং ঝুঁকি প্রকাশ পড়ুন।