OpenAI, en gelişmiş siber güvenlik odaklı AI modeline erişim sağlamak için Avrupa Komisyonu ile aktif görüşmeler yürütüyor; bu model, yazılım zafiyetlerini tanımlayabiliyor. Bu adım, ChatGPT'nin üreticisini, öncü AI sistemlerinin yarattığı güvenlik risklerini değerlendirmede haftalarca zorlanan AB düzenleyicilerine siber yeteneklerini açan ilk büyük AI laboratuvarı konumuna getiriyor.
Zamanlama kesin. Güvenliğe odaklı yapay zeka yarışında OpenAI'nin başlıca rakibi Anthropic, kendi siber güvenlik modeli Mythos'a AB'nin erişimini henüz onaylamadı.
Modelin aslında yaptığı
OpenAI'nin siber güvenlik modeli olan GPT-5.5-Cyber, yazılım hatalarını tanımlamak ve sızıntıları simüle etmek için özel olarak tasarlanmıştır.
1 Mayıs itibarıyla GPT-5.5, simüle edilmiş bir kurumsal ağ saldırısını tamamladı ve bu başarıyı elde eden ikinci AI sistemi oldu. İlk sistem Anthropic’in Mythos idi. Şimdi bu iki model, simüle edilmiş kurumsal ortamlara girmekte yaklaşık olarak eşit yeteneklere sahip görünüyor.
AI Yasası kapsamında Avrupa düzenleyicileri, gelişmiş AI modellerinin getirdiği siber güvenlik risklerini değerlendirmelidir. Doğrudan erişim sağlayarak OpenAI, Komisyon'a en yetenekli siber aracını denemesini sağlıyor.
Neden kripto dikkat etmeli
Kripto hırsızlıklarından kaynaklanan finansal kayıplar, 2025 yılında 1,5 milyar doları aştı. AI modelleri kurumsal ağ saldırılarını simüle edebiliyorsa, akıllı sözleşmelere, köprü protokollerine ve DeFi platformlarına da yönlendirilebilir.
Son aylarda, yapay zeka ajanlarından yararlanarak kripto para çalma amaçlı dolandırıcılık olayları rapor edildi. Tehdit ortamı, saldırganların yapay zeka araçlarını phishing, sosyal mühendislik ve zafiyet keşfi için otomatikleştirmesiyle gerçek zamanlı olarak değişiyor.
Yapay zeka ile ilgili tokenlar, bu siber güvenlik yapay zeka gelişmelerinin duyurulmasının ardından %5 fiyat artışı yaşadı.
Düzenleyici satranç oyunu
OpenAI’nin AB’ye yaptığı teklif, güvenlik kadar stratejiyle de ilgilidir. Yapay Zeka Yasası, dünyada yapay zeka için hazırlanmış en kapsamlı düzenleyici çerçevedir. En yetenekli siber modeline erişim sunarak OpenAI, hesaplı bir bahis yapıyor: Şirket, şeffaflığını gösterme ve düzenleyicilerle iyi niyet inşa etme fırsatı bulurken, AB’nin saldırı amaçlı siber yeteneklere sahip yapay zeka sistemlerini nihayetinde nasıl sınıflandıracağını ve düzenleyeceğini belirleme konusunda etki kazanıyor.
Anthropic için, AB eğer siber güvenlik AI yönergelerini OpenAI modeliyle olan deneyimine temel alırsa, Anthropic kendi katkısının olmadığı bir çerçeveye göre değerlendirilme riskiyle karşı karşıya kalır.
2025 yılında kripto saldırıları nedeniyle kaybedilen 1,5 milyar dolar temel değerdir. Özellikle DeFi sektörü, Fetch.ai gibi projelerin zaten otomatik güvenlik denetimleri için yapay zeka teknolojilerini entegre etmeye başlaması nedeniyle dikkatli izlemelidir.

