Anthropic : Des agents d'IA identifient des vulnérabilités de 4,6 millions de dollars dans de vrais contrats

iconChainthink
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy

Selon Chainthink, Anthropic a publié un rapport indiquant que ses chercheurs ont testé les modèles Claude Opus 4.5, Claude Sonnet 4.5 et GPT-5 sur la référence SCONE-bench, qui inclut 405 contrats attaqués dans des situations réelles entre 2020 et 2025. Les modèles ont identifié des vulnérabilités exploitables d'une valeur d'environ 4,6 millions de dollars dans des contrats attaqués après mars 2025. De plus, lors de tests simulés sur 2 849 contrats récemment déployés sans vulnérabilités connues, Sonnet 4.5 et GPT-5 ont chacun découvert deux nouvelles vulnérabilités de type "zero-day", pouvant potentiellement causer des pertes de 3 694 dollars, le coût de l'API de GPT-5 s'élevant à 3 476 dollars.

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.