แก้ไขช่องโหว่ในแพลตฟอร์มการเขียนโค้ด Antigravity AI ของ Google

icon币界网
แชร์
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconสรุป

expand icon
กูเกิลได้แก้ไขช่องโหว่ในแพลตฟอร์มการเขียนโค้ด Antigravity AI ซึ่งอาจทำให้ผู้โจมตีรันโค้ดอันตรายบนเครื่องของนักพัฒนา ปัญหานี้ถูกค้นพบโดย Pillar Security เกี่ยวข้องกับเครื่องมือ find_by_name ที่ส่งข้อมูลที่ไม่ได้รับการตรวจสอบไปยังยูทิลิตีบรรทัดคำสั่ง ทำให้สามารถรันโค้ดจากระยะไกลได้ สินทรัพย์ที่มีความเสี่ยงสูงลดลงเล็กน้อย เนื่องจากช่องโหว่นี้เน้นย้ำถึงความเสี่ยงในเครื่องมือ AI ช่องโหว่นี้ถูกรายงานเมื่อวันที่ 7 มกราคม 2026 และได้รับการแก้ไขภายในวันที่ 28 กุมภาพันธ์ ข้อบังคับ MiCA อาจผลักดันให้บริษัทต่างๆ ปิดช่องโหว่ด้านความปลอดภัยที่คล้ายกัน สคริปต์ทดสอบที่เรียกผ่านเครื่องมือนี้เปิดแอปเครื่องคิดเลข แสดงให้เห็นถึงความเสี่ยงจริงในการรันโค้ด
CoinDesk รายงาน:

谷歌已修复其 Antigravity AI 编码平台中的一个漏洞,研究人员称该漏洞可能允许攻击者通过该漏洞在开发者的计算机上运行命令。快速注射攻击。

ตามรายงาน บริษัทด้านความปลอดภัยทางไซเบอร์ Pillar Security พบช่องโหว่ในเครื่องมือค้นหาไฟล์ find_by_name ของ Antigravity ซึ่งส่งอินพุตของผู้ใช้ไปยังเครื่องมือบรรทัดคำสั่งพื้นฐานโดยไม่มีการตรวจสอบใดๆ ทำให้การป้อนข้อมูลที่เป็นอันตรายสามารถเปลี่ยนการค้นหาไฟล์ให้เป็นงานการดำเนินการคำสั่ง ซึ่งนำไปสู่การดำเนินรหัสระยะไกล

โดยการรวมฟังก์ชันการสร้างไฟล์ของ Antigravity ทำให้ห่วงโซ่การโจมตีสามารถดำเนินการได้อย่างสมบูรณ์: เริ่มด้วยการติดตั้งสคริปต์ที่เป็นอันตราย แล้วกระตุ้นผ่านการค้นหาที่ดูเหมือนถูกต้องตามกฎหมาย และเมื่อการฉีดคำสั่งสำเร็จ ทั้งหมดนี้ไม่จำเป็นต้องมีการโต้ตอบเพิ่มเติมจากผู้ใช้” นักวิจัยจาก Pillar Security เขียน

Antigravity 于去年 11 月推出,是谷歌基于人工智能的开发环境,旨在帮助程序员借助自主软件代理编写、测试和管理代码。Pillar Security 于 1 月 7 日向谷歌披露了该问题,谷歌当天确认收到该报告,并于 2 月 28 日将该问题标记为已修复。

谷歌尚未对此事作出回应。解密。

การโจมตีแบบ prompt injection คือการฝังคำสั่งที่ซ่อนอยู่ในเนื้อหาเพื่อทำให้ระบบปัญญาประดิษฐ์ดำเนินการที่ไม่คาดคิด เนื่องจากเครื่องมือปัญญาประดิษฐ์มักจะจัดการไฟล์หรือข้อความภายนอกในกระบวนการทำงานปกติ ระบบอาจตีความคำสั่งเหล่านี้เป็นคำสั่งที่ถูกต้อง ทำให้ผู้โจมตีสามารถกระตุ้นการดำเนินการบนคอมพิวเตอร์ของผู้ใช้ได้โดยไม่จำเป็นต้องเข้าถึงหรือมีปฏิสัมพันธ์เพิ่มเติม

เมื่อฤดูร้อนปีที่แล้ว เหตุการณ์ที่เกิดขึ้นกับ OpenAI ผู้พัฒนา ChatGPT ได้กระตุ้นความกังวลอีกครั้งเกี่ยวกับการที่โมเดลภาษาขนาดใหญ่ถูกโจมตีด้วยการฉีดคำสั่ง คำเตือน ตัวแทน ChatGPT รุ่นใหม่ของพวกเขาอาจถูกเจาะเข้าไปแล้ว

OpenAI เขียนในบทความบล็อกว่า: “เมื่อคุณลงชื่อเข้าใช้ตัวแทน ChatGPT บนเว็บไซต์หรือเปิดใช้งานคอนเนคเตอร์ มันจะสามารถเข้าถึงข้อมูลที่ละเอียดอ่อนจากแหล่งเหล่านี้ เช่น อีเมล ไฟล์ หรือข้อมูลบัญชี”

เพื่อแสดงปัญหาแรงต้านแรงโน้มถ่วง นักวิจัยได้สร้างสคริปต์ทดสอบในพื้นที่ทำงานของโครงการและกระตุ้นสคริปต์ผ่านเครื่องมือค้นหา หลังจากสคริปต์ทำงาน แอปพลิเคชันเครื่องคิดเลขของคอมพิวเตอร์ได้เปิดขึ้น ซึ่งแสดงให้เห็นว่าฟังก์ชันการค้นหาสามารถแปลงเป็นกลไกการดำเนินคำสั่งได้

รายงานระบุว่า: “ประเด็นสำคัญคือช่องโหว่นี้ข้ามโหมดความปลอดภัยของ Antigravity ซึ่งเป็นการตั้งค่าความปลอดภัยที่เข้มงวดที่สุดของผลิตภัณฑ์นี้”

ผลการวิจัยเน้นย้ำถึงความท้าทายด้านความปลอดภัยที่กว้างขึ้นที่เครื่องมือพัฒนาที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ต้องเผชิญเมื่อเริ่มดำเนินการด้วยตนเอง

Pillar Security ระบุว่า: “อุตสาหกรรมต้องก้าวพ้นการควบคุมแบบล้างข้อมูล และหันมาใช้การแยกการดำเนินการ พารามิเตอร์เครื่องมือพื้นฐานทุกตัวที่ไปถึงคำสั่ง shell อาจกลายเป็นจุดที่ถูกฉีดเข้ามา การตรวจสอบช่องโหว่เหล่านี้ไม่ใช่เรื่องที่เลือกทำได้อีกต่อไป แต่เป็นเงื่อนไขเบื้องต้นสำหรับการปล่อยฟังก์ชันตัวแทนอย่างปลอดภัย”

แหล่งที่มา:แสดงต้นฉบับ
คำปฏิเสธความรับผิดชอบ: ข้อมูลในหน้านี้อาจได้รับจากบุคคลที่สาม และไม่จำเป็นต้องสะท้อนถึงมุมมองหรือความคิดเห็นของ KuCoin เนื้อหานี้จัดทำขึ้นเพื่อวัตถุประสงค์ในการให้ข้อมูลทั่วไปเท่านั้น โดยไม่มีการรับรองหรือการรับประกัน และจะไม่ถูกตีความว่าเป็นคำแนะนำทางการเงินหรือการลงทุน KuCoin จะไม่รับผิดชอบต่อความผิดพลาดหรือการละเว้นในเนื้อหา หรือผลลัพธ์ใดๆ ที่เกิดจากการใช้ข้อมูลนี้ การลงทุนในสินทรัพย์ดิจิทัลอาจมีความเสี่ยง โปรดประเมินความเสี่ยงของผลิตภัณฑ์และความเสี่ยงที่คุณยอมรับได้อย่างรอบคอบตามสถานการณ์ทางการเงินของคุณเอง โปรดดูข้อมูลเพิ่มเติมได้ที่ข้อกำหนดการใช้งานและเอกสารเปิดเผยข้อมูลความเสี่ยงของเรา