Inilabas ni Google ang patch para sa vulnerability sa Antigravity AI Coding Platform

icon币界网
I-share
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconSummary

expand icon
Nilutas ng Google ang isang butas sa kanyang Antigravity AI coding platform na maaaring magbigay-daan sa mga hacker na patakbuhin ang masasamang code sa mga machine ng mga developer. Ang isyu, na natuklasan ng Pillar Security, ay nagsasangkot ng ang find_by_name tool na nagpapasa ng hindi pinapatunayang input sa isang command-line utility, na nagpapahintulot sa remote code execution. Ang mga asset na may risk-on ay nakaranas ng kaunting pagbaba dahil ipinakita ng vulnerability ang mga panganib sa mga AI tool. Ibinigay ang ulat tungkol sa butas noong Enero 7, 2026, at nilutas noong Pebrero 28. Maaaring hikayatin ng mga regulasyon ng MiCA ang mga kumpanya na pakinabangan ang mga katulad na security gap. Isang test script na pinagana sa pamamagitan ng tool ay nagbukas ng calculator app, na nagpapakita ng tunay na panganib sa execution.
CoinDesk na nagsasalaysay:

Nilutas ng Google ang isang vulnerability sa kanilang Antigravity AI coding platform, na ayon sa mga researcher ay maaaring payagan ang mga attacker na tumakbo ng mga command sa kompyuter ng developer sa pamamagitan ng Quick Injection attack.

Ayon sa report, natuklasan ng cybersecurity company na Pillar Security ang isang vulnerability sa find_by_name file search tool ng Antigravity, na direktang ipinapasa ang user input sa ilalim na command-line utility nang walang anumang pag-verify. Ito ay nagpapahintulot sa masamang input na i-convert ang file search bilang command execution task, na nagpapahintulot sa remote code execution.

Sa pamamagitan ng paggamit ng kakayahan ng Antigravity na lumikha ng mga file, natatapos ang chain ng pag-atake: unang ipinapalabas ang masasamang script, pagkatapos ay tinatawag ito sa pamamagitan ng isang tila legal na paghahanap; kapag naging matagumpay ang pag-inject ng prompt, walang karagdagang interaksyon mula sa user ang kailangan. Sinulat ng mga siyentipiko ng Pillar Security.

Ipinakilala ng Google noong Nobyembre ng nakaraang taon ang Antigravity, isang AI-based na development environment na naglalayong tulungan ang mga programmer na sumulat, subukan, at pamahalaan ang code gamit ang autonomous software agents. Ibinigay ng Pillar Security ang isyu sa Google noong Enero 7, at kinilala ng Google ang ulat sa araw na iyon, at isinulat ang isyu bilang narepair noong Pebrero 28.

Hindi pa nagbigay ng reaksyon ang Google sa isyu na ito.Decrypted.

Ang prompt injection attack ay tumutukoy sa mga nakatago na utos na isinama sa nilalaman na nagdudulot ng pagpapatakbo ng hindi inaasahang mga gawain ng isang AI system. Dahil karaniwang inooperate ang mga AI tool ang panlabas na mga file o teksto sa kanilang normal na proseso, maaaring ilarawan ng sistema ang mga utos na ito bilang legal na utos, na nagpapahintulot sa mga attacker na i-trigger ang mga gawain sa kompyuter ng user nang walang direkta o karagdagang interaksyon.

Noong nakaraang tag-init, ang isang pangyayari sa OpenAI, ang developer ng ChatGPT, ay muli'y nagtulak sa mga tao na mag-alala tungkol sa pag-atake ng prompt injection sa malalaking modelo ng wika. Alerta ang kanilang bagong ChatGPT agent ay maaaring na-hack.

Isinulat ng OpenAI sa isang blog post: "Kapag nag-log in ang ChatGPT agent sa isang website o pinagana ang connector, makakakuha ito ng access sa sensitibong data mula sa mga pinagkukunan na ito, tulad ng email, file, o impormasyon sa account."

Para sa pagpapakita ng problema sa antigravity, nilikha ng mga siyentipiko ang isang test script sa project workspace at sinimulan ito gamit ang search tool. Pagkatapos mong i-run ang script, binuksan ng computer ang application ng calculator, na nagpapakita na ang search function ay maaaring maibahagi bilang isang command execution mechanism.

Ipinahayag ng ulat: “Ang pangunahing punto ay ang pagbubuwas ng security mode ng Antigravity, ang pinakamapagkakatiwalaang configuration ng seguridad ng produkto.”

Ang mga resulta ng pag-aaral ay nagpapakita ng mas malawak na mga hamon sa kaligtasan na kinakaharap ng mga tool sa pag-unlad na dinadala ng artificial intelligence kapag nagsisimula na magpapatupad ng mga gawain nang sarili.

Sinabi ng Pillar Security: "Dapat lumampas ang industriya sa mga pagsisikap na batay sa paglinis at lumipat sa pagpapatupad ng paghihiwalay. Ang bawat parametrong native na dumating sa shell command ay maaaring maging isang punto ng pagtusok. Ang pagsusuri sa mga uri ng vulnerability na ito ay hindi na isang opsyonal, kundi isang pangunahing kondisyon para sa ligtas na paglalabas ng mga function ng agent."

Disclaimer: Ang information sa page na ito ay maaaring nakuha mula sa mga third party at hindi necessary na nagre-reflect sa mga pananaw o opinyon ng KuCoin. Ibinigay ang content na ito para sa mga pangkalahatang informational purpose lang, nang walang anumang representation o warranty ng anumang uri, at hindi rin ito dapat ipakahulugan bilang financial o investment advice. Hindi mananagot ang KuCoin para sa anumang error o omission, o para sa anumang outcome na magreresulta mula sa paggamit ng information na ito. Maaaring maging risky ang mga investment sa mga digital asset. Pakisuri nang maigi ang mga risk ng isang produkto at ang risk tolerance mo batay sa iyong sariling kalagayang pinansyal. Para sa higit pang information, mag-refer sa aming Terms ng Paggamit at Disclosure ng Risk.