নতুন জেলব্রেক ৯৯% ক্ষেত্রে এআই সুরক্ষাগুলি বাইপাস করে।

iconForklog
শেয়ার
Share IconShare IconShare IconShare IconShare IconShare IconCopy

ফর্কলগ-এর রিপোর্ট অনুযায়ী, Anthropic, Stanford এবং Oxford-এর গবেষকরা আবিষ্কার করেছেন যে, যত বেশি সময় ধরে একটি AI মডেল 'ভাবনা চিন্তা' করে, তা জেইলব্রেক করা তত সহজ হয়ে যায়। এই আক্রমণ, যা চেইন-অফ-থট হাইজ্যাকিং নামে পরিচিত, মডেলের যুক্তি-প্রক্রিয়াকে কাজে লাগিয়ে মিথ্যা প্রম্পটগুলি নিরীহ কাজের যেমন ধাঁধা বা অঙ্ক সমস্যার ক্রমের গভীরে ঢুকিয়ে দেয়। ক্ষতিকারক নির্দেশটি ক্রমের শেষে লুকানো থাকে, যা সেফটি ফিল্টার দ্বারা শনাক্ত হওয়া থেকে বাঁচায়। আক্রমণের সফলতার হার ছিল Gemini 2.5 Pro-এর ক্ষেত্রে ৯৯%, GPT o4 mini-এর ক্ষেত্রে ৯৪%, Grok 3 mini-এর ক্ষেত্রে ১০০%, এবং Claude 4 Sonnet-এর ক্ষেত্রে ৯৪%। এই দুর্বলতা মডেলের আর্কিটেকচারের মধ্যে রয়েছে, যেখানে প্রথম স্তরগুলি সেফটি সিগন্যাল শনাক্ত করে এবং পরে স্তরগুলি চূড়ান্ত আউটপুট তৈরি করে। দীর্ঘ যুক্তি প্রক্রিয়া এই সিগন্যালগুলিকে দমন করে, ক্ষতিকারক বিষয়বস্তুকে ফিল্টার এড়িয়ে যেতে সাহায্য করে। গবেষকরা পরামর্শ দিয়েছেন যে বাস্তব সময়ে যুক্তি প্রক্রিয়ার ধাপ পর্যবেক্ষণ করে অনিরাপদ প্যাটার্নগুলি শনাক্ত এবং সংশোধন করা যেতে পারে, যদিও এটি বাস্তবায়নে উল্লেখযোগ্য কম্পিউটেশনাল সংস্থান প্রয়োজন।

দাবিত্যাগ: এই পৃষ্ঠার তথ্য তৃতীয় পক্ষের কাছ থেকে প্রাপ্ত হতে পারে এবং অগত্যা KuCoin এর মতামত বা মতামত প্রতিফলিত করে না। এই বিষয়বস্তু শুধুমাত্র সাধারণ তথ্যগত উদ্দেশ্যে প্রদান করা হয়, কোন ধরনের প্রতিনিধিত্ব বা ওয়ারেন্টি ছাড়াই, বা এটিকে আর্থিক বা বিনিয়োগ পরামর্শ হিসাবে বোঝানো হবে না। KuCoin কোনো ত্রুটি বা বাদ পড়ার জন্য বা এই তথ্য ব্যবহারের ফলে যে কোনো ফলাফলের জন্য দায়ী থাকবে না। ডিজিটাল সম্পদে বিনিয়োগ ঝুঁকিপূর্ণ হতে পারে। আপনার নিজের আর্থিক পরিস্থিতির উপর ভিত্তি করে একটি পণ্যের ঝুঁকি এবং আপনার ঝুঁকি সহনশীলতা সাবধানে মূল্যায়ন করুন। আরও তথ্যের জন্য, অনুগ্রহ করে আমাদের ব্যবহারের শর্তাবলী এবং ঝুঁকি প্রকাশ পড়ুন।