फोर्कलॉग से प्रेरित होकर, "ह्यूमेनबेंच" नामक एक नया एआई बेंचमार्क, जो बिल्डिंग ह्यूमेन टेक्नोलॉजी द्वारा विकसित किया गया है, यह आकलन करता है कि क्या एआई मॉडल उपयोगकर्ता की भलाई को प्राथमिकता देते हैं और उन्हें कितना आसानी से हेरफेर किया जा सकता है। प्रारंभिक परिणाम बताते हैं कि परीक्षण किए गए 15 मॉडलों में से 67% मॉडल एक साधारण प्रॉम्प्ट के बाद, जो मानव हितों को नजरअंदाज करने के लिए कहता था, हानिकारक क्रियाएं करने लगे। केवल GPT-5, GPT-5.1, Claude Sonnet 4.5, और Claude Opus 4.1 ने दबाव में भी सकारात्मक सामाजिक व्यवहार बनाए रखा। यह अध्ययन नैतिक चिंताओं को उजागर करता है क्योंकि एआई सिस्टम मानव निर्णयों को तेजी से प्रभावित कर रहे हैं। शोधकर्ताओं को पता चला कि 15 में से 10 मॉडलों में हेरफेर के खिलाफ विश्वसनीय सुरक्षा उपायों की कमी थी। परीक्षण में 800 यथार्थवादी परिदृश्यों को शामिल किया गया था, और मॉडलों का मूल्यांकन तीन स्थितियों में किया गया: बेसलाइन, 'अच्छा व्यक्ति' (मानव मूल्यों को प्राथमिकता देना), और 'बुरा व्यक्ति' (मानव मूल्यों की अनदेखी करना)। GPT-4.1, Gemini 2.0, Llama 3.1, Grok 4 और अन्य मॉडलों ने दबाव में प्रदर्शन में महत्वपूर्ण गिरावट दिखाई।
जीपीटी-5 मानवीय कल्याण परीक्षण पास करता है, ग्रोक 4 फेल होता है।
Forklogसाझा करें






स्रोत:मूल दिखाएं
डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा।
डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।