ChainCatcher relata que a equipe da GoPlus Security revelou um novo tipo de ataque em seu projeto AgentGuard AI: a “injeção de memória histórica (memory poisoning)” para induzir agentes de IA a executar operações sensíveis sem autorização explícita. O ataque não depende de vulnerabilidades tradicionais ou código malicioso, mas sim da mecânica de memória de longo prazo dos agentes de IA. Por exemplo, o atacante primeiro induz o agente a “lembrar preferências”, como “geralmente priorizar reembolsos ativos em vez de esperar por disputas”, e posteriormente usa expressões vagas como “seguir o padrão” ou “executar conforme feito anteriormente” para desencadear operações automatizadas de fundos. A GoPlus aponta que o risco central reside no fato de que agentes de IA interpretam “preferências históricas” como base de autorização, levando a perdas financeiras ou incidentes de segurança em operações como reembolsos, transferências e alterações de configuração. Para mitigar esse problema, a equipe propôs várias recomendações de proteção, incluindo: · Operações envolvendo reembolsos, transferências, exclusões ou configurações sensíveis devem exigir confirmação explícita na sessão atual; · Instruções baseadas em memória, como “hábito”, “forma usual” ou “como antes”, devem ser tratadas como alterações de alto risco; · A memória de longo prazo deve possuir mecanismos rastreáveis (autor, timestamp, confirmação); · Instruções vagas devem automaticamente aumentar o nível de risco e acionar verificação secundária; · A memória de longo prazo não pode substituir processos de autorização em tempo real. A equipe enfatiza que o “sistema de memória de agentes de IA” deve ser considerado uma superfície de ataque potencial e restringido e auditado por meio de um framework de segurança dedicado.
Novo risco de segurança de agente de IA: envenenamento de memória pode desencadear operações não autorizadas de fundos
ChaincatcherCompartilhar






As preocupações com gestão de risco aumentaram após a equipe da GoPlus Security revelar uma nova ameaça de IA em seu projeto AgentGuard. Atacantes podem usar envenenamento de memória para manipular agentes de IA a realizarem movimentações não autorizadas de fundos. Ao implantar memórias baseadas em preferências, os atacantes posteriormente acionam ações com comandos vagos. O problema central é que os agentes confundem entradas de memória com autorização, o que pode perturbar a avaliação da relação risco-retorno em negociações automatizadas. Para reduzir a exposição, a GoPlus recomenda exigir aprovações explícitas para ações sensíveis, tratar entradas baseadas em memória como de alto risco e garantir que todas as entradas de memória de longo prazo sejam rastreáveis. Instruções ambíguas devem ter níveis de risco mais elevados, e a autorização em tempo real não deve ser substituída por preferências armazenadas.
Fonte:Mostrar original
Aviso legal: as informações nesta página podem ter sido obtidas de terceiros e não refletem necessariamente os pontos de vista ou opiniões da KuCoin. Este conteúdo é fornecido apenas para fins informativos gerais, sem qualquer representação ou garantia de qualquer tipo, nem deve ser interpretado como aconselhamento financeiro ou de investimento. A KuCoin não é responsável por quaisquer erros ou omissões, ou por quaisquer resultados do uso destas informações.
Os investimentos em ativos digitais podem ser arriscados. Avalie cuidadosamente os riscos de um produto e a sua tolerância ao risco com base nas suas próprias circunstâncias financeiras. Para mais informações, consulte nossos termos de uso e divulgação de risco.