Google telah memperbaiki kerentanan di platform pengkodean Antigravity AI-nya, yang menurut para peneliti dapat memungkinkan penyerang menjalankan perintah di komputer pengembang melalui kerentanan tersebut. Quick Injection attack.
Menurut laporan, perusahaan keamanan siber Pillar Security menemukan kerentanan pada alat pencarian file find_by_name milik Antigravity, yang secara langsung meneruskan input pengguna ke utilitas baris perintah dasar tanpa validasi apa pun. Hal ini memungkinkan input jahat untuk mengubah pencarian file menjadi tugas eksekusi perintah, sehingga memungkinkan eksekusi kode jarak jauh.
Dengan menggabungkan fitur Antigravity yang memungkinkan pembuatan file, rantai serangan dapat sepenuhnya diwujudkan: pertama, menyebar skrip jahat, lalu memicunya melalui pencarian yang tampak sah; setelah injeksi prompt berhasil, seluruh proses ini tidak memerlukan interaksi tambahan dari pengguna,” tulis para peneliti Pillar Security.
Antigravity diluncurkan pada November tahun lalu, merupakan lingkungan pengembangan berbasis kecerdasan buatan milik Google yang dirancang untuk membantu programmer menulis, menguji, dan mengelola kode dengan bantuan agen perangkat lunak otonom. Pillar Security melaporkan masalah ini kepada Google pada 7 Januari, dan Google mengonfirmasi penerimaan laporan tersebut pada hari yang sama, serta menandai masalah ini sebagai telah diperbaiki pada 28 Februari.
Google belum memberikan tanggapan atas hal ini.Decrypted.
Serangan prompt injection merujuk pada instruksi tersembunyi yang disisipkan dalam konten yang menyebabkan sistem kecerdasan buatan menjalankan operasi yang tidak diharapkan. Karena alat kecerdasan buatan biasanya memproses file atau teks eksternal dalam alur kerja normal, sistem dapat menafsirkan instruksi-instruksi ini sebagai perintah sah, sehingga penyerang dapat memicu operasi di komputer pengguna tanpa perlu mengakses secara langsung atau melakukan interaksi tambahan.
Pada musim panas lalu, insiden yang melibatkan OpenAI, pengembang ChatGPT, kembali memicu kekhawatiran tentang serangan prompt injection terhadap model bahasa besar. Peringatan bahwa agen ChatGPT baru mereka mungkin telah diretas.
OpenAI menulis dalam sebuah posting blog: "Ketika Anda masuk ke agen ChatGPT ke situs web atau mengaktifkan konektor, agen tersebut akan dapat mengakses data sensitif dari sumber-sumber tersebut, seperti email, file, atau informasi akun."
Untuk mendemonstrasikan masalah anti-gravitasi, peneliti membuat skrip pengujian di workspace proyek dan memicu skrip tersebut melalui alat pencarian. Setelah skrip dieksekusi, aplikasi kalkulator komputer dibuka, menunjukkan bahwa fitur pencarian dapat diubah menjadi mekanisme eksekusi perintah.
Laporan menyatakan: “Intinya, kerentanan ini melewati mode keamanan Antigravity, konfigurasi keamanan paling ketat dari produk ini.”
Hasil penelitian menyoroti tantangan keamanan yang lebih luas yang dihadapi oleh alat pengembangan berbasis kecerdasan buatan saat mulai menjalankan tugas secara mandiri.
Pillar Security menyatakan: "Industri harus melampaui langkah-langkah kontrol berbasis pembersihan dan beralih ke isolasi eksekusi. Setiap parameter alat asli yang mencapai perintah shell dapat menjadi titik injeksi. Melakukan audit terhadap kerentanan semacam ini bukan lagi pilihan, tetapi prasyarat untuk merilis fitur agen secara aman."
