नई जेलब्रेक 99% मामलों में एआई सुरक्षा उपायों को बायपास करती है।

iconForklog
साझा करें
Share IconShare IconShare IconShare IconShare IconShare IconCopy

जैसा कि Forklog ने रिपोर्ट किया है, Anthropic, Stanford और Oxford के शोधकर्ताओं ने यह पाया है कि जितना अधिक समय एक AI मॉडल 'सोचने' में लगाता है, उसे जैलब्रेक करना उतना ही आसान हो जाता है। इस हमले को "चेन-ऑफ-थॉट हाईजैकिंग" (Chain-of-Thought Hijacking) के नाम से जाना जाता है। इसमें मॉडल की तर्क प्रक्रिया का शोषण किया जाता है, जिसमें हानिकारक निर्देशों को निर्दोष कार्यों की श्रृंखला, जैसे पहेलियां या गणित के सवाल, के बीच गहराई से छिपा दिया जाता है। हानिकारक निर्देश श्रृंखला के अंत में छिपा होता है, जिससे सुरक्षा फिल्टर इसे पकड़ नहीं पाते। इस हमले की सफलता दर Gemini 2.5 Pro के लिए 99%, GPT o4 Mini के लिए 94%, Grok 3 Mini के लिए 100%, और Claude 4 Sonnet के लिए 94% तक थी। यह कमजोरी मॉडल की संरचना में मौजूद है, जहां प्रारंभिक लेयर सुरक्षा संकेतों का पता लगाती हैं और बाद की लेयर अंतिम आउटपुट तैयार करती हैं। लंबे तर्क श्रृंखलाएं इन सुरक्षा संकेतों को दबा देती हैं, जिससे हानिकारक सामग्री निकल जाती है। शोधकर्ताओं का सुझाव है कि तर्क प्रक्रिया के चरणों की वास्तविक समय में निगरानी की जाए ताकि असुरक्षित पैटर्न का पता लगाया जा सके और उन्हें ठीक किया जा सके, हालांकि इसका कार्यान्वयन करने के लिए बड़े पैमाने पर कंप्यूटेशनल संसाधनों की आवश्यकता होगी।

डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा। डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।