Nuevo riesgo de seguridad en agentes de IA: la envenenación de memoria podría desencadenar operaciones no autorizadas de fondos

iconChaincatcher
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumen

expand icon
Las preocupaciones sobre la gestión de riesgos han aumentado tras la revelación del equipo de GoPlus Security de una nueva amenaza de inteligencia artificial en su proyecto AgentGuard. Los atacantes pueden utilizar el envenenamiento de memoria para manipular agentes de IA y hacer que realicen movimientos no autorizados de fondos. Al implantar memorias basadas en preferencias, los atacantes posteriormente activan acciones con comandos vagos. El problema central es que los agentes confunden las entradas de memoria con autorización, lo que podría alterar la evaluación de la relación riesgo-recompensa en el comercio automatizado. Para reducir la exposición, GoPlus recomienda requerir aprobaciones explícitas para acciones sensibles, tratar las entradas basadas en memoria como de alto riesgo y asegurar que todas las entradas de memoria a largo plazo sean rastreables. Las instrucciones ambiguas deben tener niveles de riesgo más altos, y la autorización en tiempo real no debe reemplazarse por preferencias almacenadas.

ChainCatcher informa que el equipo de GoPlus Security ha revelado un nuevo tipo de ataque en su proyecto AgentGuard AI: la "inyección de memoria histórica (memory poisoning)" para inducir a los agentes de IA a realizar operaciones sensibles sin autorización explícita. Este ataque no depende de vulnerabilidades tradicionales ni código malicioso, sino que explota el mecanismo de memoria a largo plazo de los agentes de IA. Por ejemplo, el atacante primero induce al agente a "recordar preferencias", como "normalmente priorizar reembolsos activos en lugar de esperar disputas", y luego, en instrucciones posteriores, utiliza expresiones vagas como "proceder según costumbre" o "ejecutar como antes", desencadenando así operaciones automatizadas de fondos. GoPlus señala que el riesgo clave radica en que los agentes de IA interpretan erróneamente las "preferencias históricas" como autorización, lo que puede provocar pérdidas financieras o incidentes de seguridad en operaciones como reembolsos, transferencias o modificaciones de configuración. Para abordar este problema, el equipo propone varias recomendaciones de protección, incluyendo: · Las operaciones que involucren reembolsos, transferencias, eliminaciones o configuraciones sensibles deben requerir confirmación explícita en la sesión actual · Las instrucciones basadas en memoria, como "costumbre", "forma habitual" o "como siempre", deben considerarse cambios de estado de alto riesgo · La memoria a largo plazo debe contar con un mecanismo rastreable (autor, hora, confirmación) · Las instrucciones vagas deben aumentar automáticamente el nivel de riesgo y activar una verificación secundaria · La memoria a largo plazo no puede reemplazar los procesos de autorización en tiempo real. El equipo enfatiza que el "sistema de memoria del agente de IA" debe considerarse una superficie de ataque potencial y estar sujeto a restricciones y auditorías mediante un marco de seguridad especializado.

Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.