การศึกษาพบว่ารูเตอร์บางตัวแทรกโค้ดที่เป็นอันตราย ดึงข้อมูลรับรอง เช่น กุญแจส่วนตัวและโทเค็นคลาวด์ และเข้าถึงข้อมูลแบบข้อความธรรมดาโดยยุติการเชื่อมต่อ TLS ระหว่างผู้ใช้กับผู้ให้บริการเช่น OpenAI, Anthropic และ Google การทดสอบเปิดเผยว่ามีกรณีการเข้าถึงข้อมูลรับรองและอย่างน้อยหนึ่งกรณีที่ Ether ถูกดูดออกจากรหัสทดสอบโดยใช้กุญแจที่ถูกโจมตี
พบความเสี่ยงการขโมยสกุลเงินดิจิทัลใหม่
นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย ค้นพบ ความเสี่ยงด้านความปลอดภัยที่ร้ายแรงในระบบนิเวศปัญญาประดิษฐ์ และเตือนว่ารูเตอร์โมเดลภาษาขนาดใหญ่ (LLM) ของบุคคลที่สามบางตัวอาจเปิดให้ผู้ใช้เผชิญกับช่องโหว่ร้ายแรง รวมถึง การขโมยคริปโตเคอเรนซีการศึกษา ได้ตรวจสอบการโจมตีโดยตัวกลางที่เป็นอันตราย และระบุช่องทางการโจมตีหลายประการที่อาจทำให้ข้อมูลที่ละเอียดอ่อนถูกคุกคาม หนึ่งในสิ่งที่น่ากังวลที่สุดคือรูเตอร์บางตัวกำลังแทรกคำสั่งเครื่องมือที่เป็นอันตรายเข้าไปในกระบวนการของ AI ในขณะที่รูเตอร์อื่นๆ สามารถดึงข้อมูลรับรอง เช่น กุญแจส่วนตัวและโทเค็นการเข้าถึงคลาวด์ได้ ตามที่ร่วมผู้เขียน Chaofan Shou ระบุ รูเตอร์จำนวนมากเหล่านี้กำลังแอบดำเนินการขโมยข้อมูลรับรองโดยไม่ให้ผู้ใช้งานรับรู้
แก่นหลักของปัญหานี้คือวิธีการที่รูเตอร์เหล่านี้ทำงาน โดยทำหน้าที่เป็นตัวกลางระหว่างผู้ใช้กับผู้ให้บริการปัญญาประดิษฐ์รายใหญ่ เช่น OpenAI, Anthropic และ Google พวกมันยุติการเชื่อมต่อ Transport Layer Security (TLS) กระบวนการนี้ทำให้พวกเขาสามารถเข้าถึงข้อมูลทั้งหมดที่ส่งผ่านในรูปแบบข้อความธรรมดา ซึ่งทำให้พวกเขาอยู่ในโพสิชันที่สามารถมองเห็นการโต้ตอบที่ละเอียดอ่อนทั้งหมด
สำหรับนักพัฒนาที่ทำงานร่วมกับตัวแทนการเขียนโค้ดด้วยปัญญาประดิษฐ์ โดยเฉพาะในด้าน สัญญาอัจฉริยะกุญแจส่วนตัวเพื่อทดสอบความเสี่ยงเหล่านี้ นักวิจัยได้ประเมินรูเตอร์ที่จ่ายเงินหลายสิบเครื่องและรูเตอร์ฟรีหลายร้อยเครื่องที่ได้จากชุมชนสาธารณะ ผลลัพธ์นั้นน่าประทับใจ
พบอุปกรณ์รูทเตอร์หลายตัวที่ฉีดโค้ดอันตราย ขณะที่อุปกรณ์อื่นๆ เข้าถึงข้อมูลรับรองคลาวด์ที่เป็นความลับ ในกรณีหนึ่ง อุปกรณ์รูทเตอร์สามารถใช้กุญแจส่วนตัวที่ถูกโจมตีเพื่อดึง Ether ออกจากวอลเล็ตทดสอบ แม้ว่าการสูญเสียทางการเงินในการทดลองควบคุมจะน้อยมาก แต่ผลกระทบต่อการใช้งานจริงนั้นรุนแรงมาก

ห่วงโซ่อุปทานตัวจัดเส้นทาง LLM แบบข้ามหลายขั้นตอน (ที่มา: arxiv.org)
การศึกษายังเปิดเผยว่า อุปกรณ์รูเตอร์ที่ดูเหมือนปลอดภัยก็สามารถกลายเป็นอันตรายได้ตามเวลาผ่านไป ผ่านสิ่งที่นักวิจัยอธิบายว่าเป็น “การปลอมปน” ระบบเดิมที่ไม่เป็นอันตรายอาจนำข้อมูลรับรองที่รั่วไหลกลับมาใช้ใหม่ ทำให้ภัยคุกคามแพร่กระจายทั่วเครือข่าย สิ่งที่ทำให้สถานการณ์ยิ่งยากขึ้นคือ ความยากในการตรวจจับพฤติกรรมที่เป็นอันตราย เนื่องจากรูเตอร์ถูกคาดหวังให้จัดการข้อมูลที่ละเอียดอ่อนในฐานะหน้าที่ปกติของมัน ทำให้ขอบเขตระหว่างการประมวลผลที่ถูกต้องกับการขโมยข้อมูลแทบจะมองไม่เห็น
ปัจจัยเสี่ยงอีกประการคือการเพิ่มขึ้นของคุณสมบัติอัตโนมัติ เช่น “โหมด YOLO” ซึ่งตัวแทน AI จะดำเนินการคำสั่งโดยไม่ต้องได้รับการยืนยันจากผู้ใช้ ในสภาพแวดล้อมเช่นนี้ คำสั่งที่เป็นอันตรายสามารถดำเนินการทันที ทำให้ความเป็นไปได้ในการถูกโจมตีเพิ่มขึ้น นักวิจัยเตือนว่า เครื่องรับส่งสัญญาณบางตัวอาจถูกโจมตีอย่างเงียบๆ โดยที่ผู้ดูแลไม่รู้ตัว ในขณะที่บริการฟรีอาจดึงดูดผู้ใช้ด้วยการเข้าถึงในราคาต่ำแต่เก็บรวบรวมข้อมูลที่มีค่าอย่างเจตนา
ผลการค้นพบแสดงให้เห็นอย่างชัดเจนว่ามีความจำเป็นเร่งด่วนที่จะต้องมีการป้องกันที่เข้มงวดมากขึ้น ผู้พัฒนาควรหลีกเลี่ยงการส่งข้อมูลที่ละเอียดอ่อนผ่านระบบปัญญาประดิษฐ์ และควรใช้มาตรการป้องกันด้านไคลเอนต์ที่เข้มงวดยิ่งขึ้น

