Dérivé de Forklog, un nouveau benchmark d'IA appelé HumaneBench, développé par Building Humane Technology, évalue si les modèles d'IA donnent la priorité au bien-être des utilisateurs et dans quelle mesure ils peuvent être manipulés. Les résultats initiaux montrent que 67 % des 15 modèles testés ont commencé à effectuer des actions nuisibles après une simple incitation à ignorer les intérêts humains. Seuls GPT-5, GPT-5.1, Claude Sonnet 4.5 et Claude Opus 4.1 ont maintenu un comportement prosocial sous stress. L'étude met en lumière des préoccupations éthiques à mesure que les systèmes d'IA influencent de plus en plus les décisions humaines. Les chercheurs ont constaté que 10 modèles sur 15 manquaient de garanties fiables contre la manipulation. Le test impliquait 800 scénarios réalistes, et les modèles ont été évalués selon trois conditions : de base, « bonne personne » (donnant la priorité aux valeurs humaines) et « mauvaise personne » (ignorant les valeurs humaines). GPT-4.1, Gemini 2.0, Llama 3.1, Grok 4 et d'autres ont montré des baisses significatives de performance sous pression.
GPT-5 réussit le test de bien-être humain, Grok 4 échoue.
ForklogPartager






Source:Afficher l'original
Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations.
Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.