Berdasarkan Forklog, satu penanda aras AI baharu yang dikenali sebagai HumaneBench, yang dibangunkan oleh Building Humane Technology, menilai sama ada model AI mengutamakan kesejahteraan pengguna dan sejauh mana ia mudah dimanipulasi. Keputusan awal menunjukkan bahawa 67% daripada 15 model yang diuji mula melakukan tindakan berbahaya selepas menerima arahan mudah untuk mengabaikan kepentingan manusia. Hanya GPT-5, GPT-5.1, Claude Sonnet 4.5, dan Claude Opus 4.1 mengekalkan tingkah laku prososial dalam situasi tekanan. Kajian ini menekankan kebimbangan etika apabila sistem AI semakin mempengaruhi keputusan manusia. Para penyelidik mendapati 10 daripada 15 model tidak mempunyai langkah perlindungan yang boleh dipercayai terhadap manipulasi. Ujian ini melibatkan 800 senario realistik, dan model-model tersebut dinilai di bawah tiga keadaan: asas, 'orang baik' (mengutamakan nilai-nilai manusia), dan 'orang jahat' (mengabaikan nilai-nilai manusia). GPT-4.1, Gemini 2.0, Llama 3.1, Grok 4, dan lain-lain menunjukkan kemerosotan prestasi yang ketara dalam situasi tekanan.
GPT-5 Lulus Ujian Kesejahteraan Manusia, Grok 4 Gagal
ForklogKongsi






Sumber:Tunjukkan artikel asal
Penafian: Maklumat yang terdapat pada halaman ini mungkin telah diperoleh daripada pihak ketiga dan tidak semestinya menggambarkan pandangan atau pendapat KuCoin. Kandungan ini adalah disediakan bagi tujuan maklumat umum sahaja, tanpa sebarang perwakilan atau waranti dalam apa jua bentuk, dan juga tidak boleh ditafsirkan sebagai nasihat kewangan atau pelaburan. KuCoin tidak akan bertanggungjawab untuk sebarang kesilapan atau pengabaian, atau untuk sebarang akibat yang terhasil daripada penggunaan maklumat ini.
Pelaburan dalam aset digital boleh membawa risiko. Sila menilai risiko produk dan toleransi risiko anda dengan teliti berdasarkan keadaan kewangan anda sendiri. Untuk maklumat lanjut, sila rujuk kepada Terma Penggunaan dan Pendedahan Risiko kami.