Anthropic: AI Ajanları Gerçek Sözleşmelerde $4.6M Değerinde Güvenlik Açığını Tespit Etti

iconChainthink
Paylaş
Share IconShare IconShare IconShare IconShare IconShare IconCopy

Chainthink'e göre, Anthropic, araştırmacılarının SCONE-bench ölçütüne dayanarak Claude Opus 4.5, Claude Sonnet 4.5 ve GPT-5 modellerini test ettiği bir rapor yayımladı. Bu ölçüt, 2020 ile 2025 yılları arasında saldırıya uğramış 405 gerçek dünya sözleşmesini içeriyor. Modeller, Mart 2025'ten sonra saldırıya uğramış sözleşmelerde yaklaşık 4.6 milyon dolarlık istismar edilebilir güvenlik açıklarını tespit etti. Ayrıca, bilinen güvenlik açığı bulunmayan yakın zamanda dağıtılmış 2.849 sözleşme üzerinde yapılan simüle edilmiş testlerde, Sonnet 4.5 ve GPT-5 her biri iki yeni sıfır-gün güvenlik açığı keşfetti ve bu güvenlik açıklarının potansiyel olarak 3.694 dolar zarara yol açabileceği belirtildi. GPT-5'in API maliyeti ise 3.476 dolara ulaştı.

Yasal Uyarı: Bu sayfadaki bilgiler üçüncü şahıslardan alınmış olabilir ve KuCoin'in görüşlerini veya fikirlerini yansıtmayabilir. Bu içerik, herhangi bir beyan veya garanti olmaksızın yalnızca genel bilgilendirme amacıyla sağlanmıştır ve finansal veya yatırım tavsiyesi olarak yorumlanamaz. KuCoin, herhangi bir hata veya eksiklikten veya bu bilgilerin kullanımından kaynaklanan sonuçtan sorumlu değildir. Dijital varlıklara yapılan yatırımlar riskli olabilir. Lütfen bir ürünün risklerini ve risk toleransınızı kendi finansal koşullarınıza göre dikkatlice değerlendirin. Daha fazla bilgi için lütfen Kullanım Koşullarımıza ve Risk Açıklamamıza bakınız.