जैसा कि Forklog ने रिपोर्ट किया है, Anthropic, Stanford और Oxford के शोधकर्ताओं ने यह पाया है कि जितना अधिक समय एक AI मॉडल 'सोचने' में लगाता है, उसे जैलब्रेक करना उतना ही आसान हो जाता है। इस हमले को "चेन-ऑफ-थॉट हाईजैकिंग" (Chain-of-Thought Hijacking) के नाम से जाना जाता है। इसमें मॉडल की तर्क प्रक्रिया का शोषण किया जाता है, जिसमें हानिकारक निर्देशों को निर्दोष कार्यों की श्रृंखला, जैसे पहेलियां या गणित के सवाल, के बीच गहराई से छिपा दिया जाता है। हानिकारक निर्देश श्रृंखला के अंत में छिपा होता है, जिससे सुरक्षा फिल्टर इसे पकड़ नहीं पाते। इस हमले की सफलता दर Gemini 2.5 Pro के लिए 99%, GPT o4 Mini के लिए 94%, Grok 3 Mini के लिए 100%, और Claude 4 Sonnet के लिए 94% तक थी। यह कमजोरी मॉडल की संरचना में मौजूद है, जहां प्रारंभिक लेयर सुरक्षा संकेतों का पता लगाती हैं और बाद की लेयर अंतिम आउटपुट तैयार करती हैं। लंबे तर्क श्रृंखलाएं इन सुरक्षा संकेतों को दबा देती हैं, जिससे हानिकारक सामग्री निकल जाती है। शोधकर्ताओं का सुझाव है कि तर्क प्रक्रिया के चरणों की वास्तविक समय में निगरानी की जाए ताकि असुरक्षित पैटर्न का पता लगाया जा सके और उन्हें ठीक किया जा सके, हालांकि इसका कार्यान्वयन करने के लिए बड़े पैमाने पर कंप्यूटेशनल संसाधनों की आवश्यकता होगी।
नई जेलब्रेक 99% मामलों में एआई सुरक्षा उपायों को बायपास करती है।
Forklogसाझा करें






स्रोत:मूल दिखाएं
डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा।
डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।