Google corrige vulnerabilidade na plataforma de codificação Antigravity AI

icon币界网
Compartilhar
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumo

expand icon
O Google corrigiu uma falha em sua plataforma de codificação Antigravity AI que poderia permitir que atacantes executassem código malicioso nas máquinas dos desenvolvedores. O problema, descoberto pela Pillar Security, envolvia a ferramenta find_by_name passando entrada não validada para uma utilidade de linha de comando, permitindo execução remota de código. Ativos de risco apresentaram leve recuo, pois a vulnerabilidade destacou riscos em ferramentas de IA. A falha foi relatada em 7 de janeiro de 2026 e corrigida até 28 de fevereiro. As regulamentações MiCA podem pressionar empresas a fechar brechas de segurança semelhantes. Um script de teste acionado por meio da ferramenta abriu o aplicativo da calculadora, demonstrando riscos reais de execução.
CoinDesk relata:

O Google corrigiu uma vulnerabilidade em sua plataforma de codificação Antigravity AI, que, segundo pesquisadores, poderia permitir que atacantes executassem comandos nos computadores dos desenvolvedores por meio de um ataque Quick Injection.

De acordo com o relatório da empresa de segurança cibernética Pillar Security, foi encontrado uma vulnerabilidade na ferramenta de busca de arquivos find_by_name da Antigravity, que passa diretamente a entrada do usuário para utilitários de linha de comando subjacentes sem qualquer validação. Isso permite que entradas maliciosas transformem a busca de arquivos em tarefas de execução de comandos, possibilitando execução remota de código.

Incorporando a funcionalidade de criação de arquivos permitida pelo Antigravity, essa cadeia de ataque é completada: primeiro, um script malicioso é implantado, depois acionado por meio de uma busca aparentemente legítima; uma vez que a injeção de prompt tenha sucesso, tudo isso ocorre sem necessidade de qualquer interação adicional do usuário.

Antigravity foi lançado em novembro do ano passado como um ambiente de desenvolvimento baseado em IA da Google, projetado para ajudar programadores a escrever, testar e gerenciar código por meio de agentes de software autônomos. A Pillar Security divulgou o problema à Google em 7 de janeiro, e a Google confirmou o recebimento do relatório no mesmo dia, marcando o problema como resolvido em 28 de fevereiro.

O Google ainda não respondeu a esse assunto.Decifrar.

Ataques de prompt injection referem-se a instruções ocultas incorporadas no conteúdo que fazem com que sistemas de inteligência artificial executem operações não previstas. Como ferramentas de IA geralmente processam arquivos ou textos externos dentro do fluxo de trabalho normal, o sistema pode interpretar essas instruções como comandos legítimos, permitindo que atacantes desencadeiem ações nos computadores dos usuários sem acesso direto ou interações adicionais.

No verão passado, o evento dos desenvolvedores do ChatGPT, a OpenAI, reacendeu preocupações sobre ataques de injeção de prompt contra grandes modelos de linguagem. Alerta seu novo agente ChatGPT pode ter sido comprometido.

OpenAI escreveu em um post de blog: "Quando você faz login do agente ChatGPT em um site ou ativa conectores, ele poderá acessar dados sensíveis dessas fontes, como e-mails, arquivos ou informações de conta."

Para demonstrar o problema de antigravidade, os pesquisadores criaram um script de teste no espaço de trabalho do projeto e acionaram esse script por meio da ferramenta de busca. Após a execução do script, o aplicativo calculadora do computador foi aberto, indicando que a função de busca pode ser transformada em um mecanismo de execução de comandos.

O relatório afirma: “O ponto crucial é que a vulnerabilidade contornou o modo de segurança do Antigravity, a configuração de segurança mais restritiva desse produto.”

Os resultados da pesquisa destacam os desafios de segurança mais amplos enfrentados por ferramentas de desenvolvimento impulsionadas por inteligência artificial ao começarem a executar tarefas de forma autônoma.

Pillar Security afirma: "A indústria deve ir além das medidas de controle baseadas em limpeza e adotar isolamento de execução. Cada parâmetro de ferramenta nativa que chega ao comando shell pode se tornar um ponto de injeção. Auditar essas vulnerabilidades já não é opcional, mas uma condição prévia para lançar com segurança funções de agente."

Aviso legal: as informações nesta página podem ter sido obtidas de terceiros e não refletem necessariamente os pontos de vista ou opiniões da KuCoin. Este conteúdo é fornecido apenas para fins informativos gerais, sem qualquer representação ou garantia de qualquer tipo, nem deve ser interpretado como aconselhamento financeiro ou de investimento. A KuCoin não é responsável por quaisquer erros ou omissões, ou por quaisquer resultados do uso destas informações. Os investimentos em ativos digitais podem ser arriscados. Avalie cuidadosamente os riscos de um produto e a sua tolerância ao risco com base nas suas próprias circunstâncias financeiras. Para mais informações, consulte nossos termos de uso e divulgação de risco.