谷歌已修复其 Antigravity AI 编码平台中的一个漏洞,研究人员称该漏洞可能允许攻击者通过该漏洞在开发者的计算机上运行命令。快速注射攻击。
ตามรายงาน บริษัทด้านความปลอดภัยทางไซเบอร์ Pillar Security พบช่องโหว่ในเครื่องมือค้นหาไฟล์ find_by_name ของ Antigravity ซึ่งส่งอินพุตของผู้ใช้ไปยังเครื่องมือบรรทัดคำสั่งพื้นฐานโดยไม่มีการตรวจสอบใดๆ ทำให้การป้อนข้อมูลที่เป็นอันตรายสามารถเปลี่ยนการค้นหาไฟล์ให้เป็นงานการดำเนินการคำสั่ง ซึ่งนำไปสู่การดำเนินรหัสระยะไกล
โดยการรวมฟังก์ชันการสร้างไฟล์ของ Antigravity ทำให้ห่วงโซ่การโจมตีสามารถดำเนินการได้อย่างสมบูรณ์: เริ่มด้วยการติดตั้งสคริปต์ที่เป็นอันตราย แล้วกระตุ้นผ่านการค้นหาที่ดูเหมือนถูกต้องตามกฎหมาย และเมื่อการฉีดคำสั่งสำเร็จ ทั้งหมดนี้ไม่จำเป็นต้องมีการโต้ตอบเพิ่มเติมจากผู้ใช้” นักวิจัยจาก Pillar Security เขียน
Antigravity 于去年 11 月推出,是谷歌基于人工智能的开发环境,旨在帮助程序员借助自主软件代理编写、测试和管理代码。Pillar Security 于 1 月 7 日向谷歌披露了该问题,谷歌当天确认收到该报告,并于 2 月 28 日将该问题标记为已修复。
谷歌尚未对此事作出回应。解密。
การโจมตีแบบ prompt injection คือการฝังคำสั่งที่ซ่อนอยู่ในเนื้อหาเพื่อทำให้ระบบปัญญาประดิษฐ์ดำเนินการที่ไม่คาดคิด เนื่องจากเครื่องมือปัญญาประดิษฐ์มักจะจัดการไฟล์หรือข้อความภายนอกในกระบวนการทำงานปกติ ระบบอาจตีความคำสั่งเหล่านี้เป็นคำสั่งที่ถูกต้อง ทำให้ผู้โจมตีสามารถกระตุ้นการดำเนินการบนคอมพิวเตอร์ของผู้ใช้ได้โดยไม่จำเป็นต้องเข้าถึงหรือมีปฏิสัมพันธ์เพิ่มเติม
เมื่อฤดูร้อนปีที่แล้ว เหตุการณ์ที่เกิดขึ้นกับ OpenAI ผู้พัฒนา ChatGPT ได้กระตุ้นความกังวลอีกครั้งเกี่ยวกับการที่โมเดลภาษาขนาดใหญ่ถูกโจมตีด้วยการฉีดคำสั่ง คำเตือน ตัวแทน ChatGPT รุ่นใหม่ของพวกเขาอาจถูกเจาะเข้าไปแล้ว
OpenAI เขียนในบทความบล็อกว่า: “เมื่อคุณลงชื่อเข้าใช้ตัวแทน ChatGPT บนเว็บไซต์หรือเปิดใช้งานคอนเนคเตอร์ มันจะสามารถเข้าถึงข้อมูลที่ละเอียดอ่อนจากแหล่งเหล่านี้ เช่น อีเมล ไฟล์ หรือข้อมูลบัญชี”
เพื่อแสดงปัญหาแรงต้านแรงโน้มถ่วง นักวิจัยได้สร้างสคริปต์ทดสอบในพื้นที่ทำงานของโครงการและกระตุ้นสคริปต์ผ่านเครื่องมือค้นหา หลังจากสคริปต์ทำงาน แอปพลิเคชันเครื่องคิดเลขของคอมพิวเตอร์ได้เปิดขึ้น ซึ่งแสดงให้เห็นว่าฟังก์ชันการค้นหาสามารถแปลงเป็นกลไกการดำเนินคำสั่งได้
รายงานระบุว่า: “ประเด็นสำคัญคือช่องโหว่นี้ข้ามโหมดความปลอดภัยของ Antigravity ซึ่งเป็นการตั้งค่าความปลอดภัยที่เข้มงวดที่สุดของผลิตภัณฑ์นี้”
ผลการวิจัยเน้นย้ำถึงความท้าทายด้านความปลอดภัยที่กว้างขึ้นที่เครื่องมือพัฒนาที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ต้องเผชิญเมื่อเริ่มดำเนินการด้วยตนเอง
Pillar Security ระบุว่า: “อุตสาหกรรมต้องก้าวพ้นการควบคุมแบบล้างข้อมูล และหันมาใช้การแยกการดำเนินการ พารามิเตอร์เครื่องมือพื้นฐานทุกตัวที่ไปถึงคำสั่ง shell อาจกลายเป็นจุดที่ถูกฉีดเข้ามา การตรวจสอบช่องโหว่เหล่านี้ไม่ใช่เรื่องที่เลือกทำได้อีกต่อไป แต่เป็นเงื่อนไขเบื้องต้นสำหรับการปล่อยฟังก์ชันตัวแทนอย่างปลอดภัย”
