O Google corrigiu uma vulnerabilidade em sua plataforma de codificação Antigravity AI, que, segundo pesquisadores, poderia permitir que atacantes executassem comandos nos computadores dos desenvolvedores por meio de um ataque Quick Injection.
De acordo com o relatório da empresa de segurança cibernética Pillar Security, foi encontrado uma vulnerabilidade na ferramenta de busca de arquivos find_by_name da Antigravity, que passa diretamente a entrada do usuário para utilitários de linha de comando subjacentes sem qualquer validação. Isso permite que entradas maliciosas transformem a busca de arquivos em tarefas de execução de comandos, possibilitando execução remota de código.
Incorporando a funcionalidade de criação de arquivos permitida pelo Antigravity, essa cadeia de ataque é completada: primeiro, um script malicioso é implantado, depois acionado por meio de uma busca aparentemente legítima; uma vez que a injeção de prompt tenha sucesso, tudo isso ocorre sem necessidade de qualquer interação adicional do usuário.
Antigravity foi lançado em novembro do ano passado como um ambiente de desenvolvimento baseado em IA da Google, projetado para ajudar programadores a escrever, testar e gerenciar código por meio de agentes de software autônomos. A Pillar Security divulgou o problema à Google em 7 de janeiro, e a Google confirmou o recebimento do relatório no mesmo dia, marcando o problema como resolvido em 28 de fevereiro.
O Google ainda não respondeu a esse assunto.Decifrar.
Ataques de prompt injection referem-se a instruções ocultas incorporadas no conteúdo que fazem com que sistemas de inteligência artificial executem operações não previstas. Como ferramentas de IA geralmente processam arquivos ou textos externos dentro do fluxo de trabalho normal, o sistema pode interpretar essas instruções como comandos legítimos, permitindo que atacantes desencadeiem ações nos computadores dos usuários sem acesso direto ou interações adicionais.
No verão passado, o evento dos desenvolvedores do ChatGPT, a OpenAI, reacendeu preocupações sobre ataques de injeção de prompt contra grandes modelos de linguagem. Alerta seu novo agente ChatGPT pode ter sido comprometido.
OpenAI escreveu em um post de blog: "Quando você faz login do agente ChatGPT em um site ou ativa conectores, ele poderá acessar dados sensíveis dessas fontes, como e-mails, arquivos ou informações de conta."
Para demonstrar o problema de antigravidade, os pesquisadores criaram um script de teste no espaço de trabalho do projeto e acionaram esse script por meio da ferramenta de busca. Após a execução do script, o aplicativo calculadora do computador foi aberto, indicando que a função de busca pode ser transformada em um mecanismo de execução de comandos.
O relatório afirma: “O ponto crucial é que a vulnerabilidade contornou o modo de segurança do Antigravity, a configuração de segurança mais restritiva desse produto.”
Os resultados da pesquisa destacam os desafios de segurança mais amplos enfrentados por ferramentas de desenvolvimento impulsionadas por inteligência artificial ao começarem a executar tarefas de forma autônoma.
Pillar Security afirma: "A indústria deve ir além das medidas de controle baseadas em limpeza e adotar isolamento de execução. Cada parâmetro de ferramenta nativa que chega ao comando shell pode se tornar um ponto de injeção. Auditar essas vulnerabilidades já não é opcional, mas uma condição prévia para lançar com segurança funções de agente."
