Google telah memperbaiki satu kelemahan dalam platform pengkodean Antigravity AI mereka, yang menurut penyelidik boleh membenarkan penyerang menjalankan arahan di komputer pembangun melalui serangan Quick Injection.
Menurut laporan syarikat keselamatan siber Pillar Security, alat carian fail find_by_name Antigravity mempunyai kelemahan yang menghantar input pengguna secara langsung ke alat baris arahan bawah tanpa sebarang pengesahan. Ini membolehkan input jahat menukar carian fail menjadi tugas eksekusi arahan, membolehkan eksekusi kod jauh.
Dengan menggabungkan fungsi pembuatan fail yang dibenarkan oleh Antigravity, rantai serangan ini dapat dilengkapkan: pertama, menghantar skrip jahat, kemudian memicunya melalui carian yang kelihatan sah; sekali penyusupan prompt berjaya, kesemuanya tidak memerlukan sebarang interaksi tambahan daripada pengguna,” tulis penyelidik Pillar Security.
Antigravity dilancarkan pada November tahun lepas, merupakan persekitaran pembangunan berasaskan kecerdasan buatan milik Google yang bertujuan membantu programmer menulis, menguji, dan mengurus kod dengan bantuan agen perisian autonomi. Pillar Security mengesahkan isu ini kepada Google pada 7 Januari, dan Google mengesahkan penerimaan laporan tersebut pada hari yang sama, serta menandakan isu ini sebagai telah dibaiki pada 28 Februari.
Google belum memberi respons mengenai perkara ini.Decrypted.
Serangan injeksi petunjuk merujuk kepada arahan tersembunyi yang disisipkan dalam kandungan yang menyebabkan sistem kecerdasan buatan menjalankan tindakan yang tidak dijangka. Kerana alat kecerdasan buatan biasanya akan memproses fail atau teks luaran dalam aliran kerja biasa, sistem mungkin akan menginterpretasikan arahan-arahan ini sebagai arahan sah, membolehkan penyerang memicu tindakan di komputer pengguna tanpa perlu mengakses secara langsung atau melakukan interaksi tambahan.
Pada musim panas tahun lalu, insiden yang melibatkan OpenAI, pengembang ChatGPT, sekali lagi menimbulkan kekhawatiran mengenai serangan penyuntikan petunjuk terhadap model bahasa besar. Peringatan agen ChatGPT terbaharu mereka mungkin telah ditembus.
OpenAI menulis dalam sebuah artikel blog: "Apabila anda log masuk agen ChatGPT ke laman web atau mengaktifkan penyambung, ia akan dapat mengakses data sensitif daripada sumber-sumber ini, seperti e-mel, fail, atau maklumat akaun."
Untuk memperagakan masalah anti-graviti, penyelidik mencipta skrip ujian di ruang kerja projek dan memicu skrip tersebut melalui alat carian. Selepas skrip dijalankan, aplikasi kalkulator komputer dibuka, yang menunjukkan bahawa fungsi carian boleh ditukar menjadi mekanisme pelaksanaan arahan.
Laporan menyatakan: “Intinya, lubang keamanan ini melewati modus keselamatan Antigravity, yang merupakan konfigurasi keselamatan paling ketat bagi produk ini.”
Kajian menonjolkan cabaran keselamatan yang lebih luas yang dihadapi oleh alat pembangunan yang didorong oleh kecerdasan buatan apabila bermula melaksanakan tugas secara bebas.
Pillar Security menyatakan: "Industri harus melangkah melebihi langkah pengendalian berbasis pembersihan dan beralih ke isolasi pelaksanaan. Setiap parameter alat asli yang sampai ke perintah shell berpotensi menjadi titik injeksi. Melakukan audit terhadap kerentanan semacam ini bukan lagi pilihan, tetapi syarat mutlak untuk merilis fungsi agen dengan aman."
