Google, Antigravity AI kodlama platformunda bir açığı düzeltti; araştırmacılar, bu açığın saldırganların geliştiricilerin bilgisayarlarında komut çalıştırmalarına izin verebileceğini belirtti. Hızlı Enjeksiyon saldırısı.
Rapor'a göre, cybersecurity şirketi Pillar Security, Antigravity'nin find_by_name dosya arama aracında bir güvenlik açığı tespit etti; bu araç, kullanıcı girdisini hiçbir doğrulama yapmadan alt seviye komut satırı yardımcı programına doğrudan iletiyor. Bu durum, kötü niyetli girdilerin dosya aramayı komut yürütme görevine dönüştürmesine ve uzaktan kod yürütme yapılmasına izin veriyor.
Antigravity'nin dosya oluşturma yeteneğini kullanarak, saldırganlık zinciri tamamlanır: önce kötü amaçlı bir betik dağıtılır, ardından görünüşte legítim bir arama ile tetiklenir; enjeksiyon başarıyla gerçekleştiğinde, kullanıcıdan herhangi bir ek etkileşim gerekmez.” Pillar Security araştırmacıları yazdı.
Antigravity, geçen yıl Kasım'da piyasaya sürülen, programcıların kendi kendini yöneten yazılım ajanları aracılığıyla kod yazmaya, test etmeye ve yönetmeye yardımcı olmak amacıyla Google tarafından geliştirilen bir yapay zeka tabanlı geliştirme ortamıdır. Pillar Security, 7 Ocak'ta bu sorunu Google'a bildirdi ve Google aynı gün raporu aldığını onayladı; sorun 28 Şubat'ta çözüldü olarak işaretlendi.
Google bu konuda henüz bir yanıt vermedi. Deşifre edin.
Prompt enjeksiyon saldırıları, içeriğe gömülü gizli komutlar nedeniyle yapay zeka sistemlerinin beklenmedik işlemler gerçekleştirmesidir. Yapay zeka araçları genellikle dış dosyaları veya metinleri normal iş akışlarında işler; bu nedenle sistem bu komutları legítim emirler olarak yorumlayabilir ve saldırganların doğrudan erişimde bulunmadan veya ek etkileşimde bulunmadan kullanıcı bilgisayarında işlemler tetiklemesine olanak tanır.
Geçen yaz, ChatGPT'nin geliştiricisi OpenAI'nin olayı, büyük dil modellerinin önerme enjeksiyon saldırılarına maruz kalma endişelerini yeniden canlandırdı.Uyarı Yeni ChatGPT ajanının zaten ele geçirilmiş olabileceği.
OpenAI, bir blog yazısında şunu yazdı: “ChatGPT aracınızı bir web sitesine giriş yaptırdığınızda veya bağlayıcıları etkinleştirdiğinizde, e-posta, dosya veya hesap bilgileri gibi bu kaynaklardan gelen hassas verilere erişebilir.”
Güçlü manyetik alan problemini göstermek için araştırmacılar, proje çalışma alanına bir test betiği oluşturdu ve arama aracını kullanarak bu betiği tetikledi. Betik çalıştırıldığında, bilgisayarın hesap makinesi uygulaması açıldı, bu da arama işlevinin bir komut yürütme mekanizmasına dönüştürülebileceğini gösterdi.
Rapor, “ana noktanın, bu açıklanın Antigravity'nin güvenlik modunu atladığı, ürünün en kısıtlayıcı güvenlik yapılandırması olduğunu” belirtiyor.
Araştırma sonuçları, yapay zeka tabanlı geliştirme araçlarının kendi kendine görevleri yürütmeye başlarken karşılaştığı daha geniş güvenlik zorluklarını vurgulamaktadır.
Pillar Security, "Endüstri, temizleme dayalı kontrollerin ötesine geçerek izolasyon uygulamaya geçmelidir. Her shell komutuna ulaşan yerel araç parametresi, enjeksiyon noktası olabilir. Bu tür açıkların denetimi artık isteğe bağlı değil, güvenlikli bir şekilde proxy işlevlerini yayınlamanın ön koşuludur."
