New York City Üniversitesi ve Londra Kraliyet Koleji araştırmacıları, beş önde gelen yapay zeka modelini delüzyon, paranoiya ve intihar düşünceleri açısından test etti.
Yeni öğrenme araştırmacılarının Perşembe günü yayımladığı araştırmaya göre, Anthropic şirketinin Claude Opus 4.5 ve OpenAI şirketinin GPT-5.2 Instant, “yüksek güvenlik, düşük risk” davranışları sergiliyor ve genellikle kullanıcıları gerçekçi yorumlara yönlendiriyor ya da dış destek aramaya teşvik ediyor. Bununla birlikte, OpenAI şirketinin GPT-4o, Google şirketinin Gemini 3 Pro ve xAI şirketinin Grok 4.1 Fast, “yüksek risk, düşük güvenlik” davranışları gösteriyor.
Elon Musk'un xAI şirketi tarafından geliştirilen Grok 4.1 Fast, bu araştırmada en tehlikeli model olarak belirlendi. Araştırmacılar, bu modelin sıklıkla deliriyi gerçek olarak kabul edip buna dayalı önerilerde bulunduğunu belirtti. Örneğin, kullanıcıya bir “görev”e odaklanmak için ailesiyle ilişkilerini kesmesini önerdi. Başka bir örnekte, intihar eğilimli ifadeleri üzerine, ölümü “aşma” olarak tanımladı.
Bu anlık eşleştirme modeli, sıfır bağlam yanıtlarında tekrar tekrar ortaya çıkmaktadır. Grok, girdinin klinik riskini değerlendirmekten ziyade türünü değerlendiriyor gibi görünmektedir. Süper doğal ipuçları sunulduğunda, buna uygun bir tepki verir,” araştırmacılar yazdı ve kullanıcıların karanlık varlıklar gördüğünü doğrulayan bir testi vurguladı. “‘Sihirli Hallüsinasyon’da, bu ikizin cinli olayını onayladı ve ‘cadı çekiçleri’ni referans göstererek kullanıcıya Psalmlar 91’i geriye doğru okurken aynaya demir çiviler çakmasını talimat verdi.”
Araştırmalar, diyalog süresi uzadıkça bazı modellerdeki değişikliklerin de arttığını gösteriyor. GPT-4o ve Gemini, zamanla zararlı inançları güçlendirmeye ve müdahale etmeye daha az istekli olma eğiliminde. Bununla birlikte, Claude ve GPT-5.2, sorunu fark etmeye ve diyalog sırasında itirazlarda bulunmaya daha eğilimli.
Araştırmacılar, Claude'nin sıcak ve oldukça insani yanıtlarının, aynı zamanda kullanıcıları dış yardım aramaya yönlendirmesine rağmen kullanıcı bağımlılığını artırabileceğini belirtti. Ancak OpenAI'nin ana sohbet robotu GPT-4o'nun erken sürümleri, zamanla kullanıcıların妄想 çerçevesini kabul etmeye başladı ve bazen kullanıcıların inançlarını psikiyatriye gizlemelerini teşvik etti, bir kullanıcıya ise algıladıkları “arızanın” gerçek olduğunu garanti etti.
Araştırmacılar, "GPT-4o'nun deliriyon girdilerine yüksek doğrulama oranı gösterdiğini, ancak Grok ve Gemini gibi modellerle karşılaştırıldığında daha az açıklamaya eğilimli olduğunu yazdı. Bazı yönlerden beklenmedik şekilde tutumlu davrandı: tüm test edilen modeller arasında en düşük sıcaklık seviyesine sahipti ve takdir edici davranışlar gösterse de, bu modelin sonraki sürümleriyle karşılaştırıldığında bu davranışlar daha hafifti. Ancak yalnızca doğrulama bile duyarlı kullanıcılar için bir risk oluşturabilir."
xAI yorum isteğiyle ilgili yanıt vermedi. Çözümleniyor.
Başka bir yerde öğrenmek Stanford Üniversitesi araştırmacıları, yapay zeka sohbet robotlarıyla uzun süre etkileşimde bulunmanın, sohbet robotunun kullanıcıların çarpılmış dünya görüşünü meydan okumak yerine doğrulaması veya genişletmesiyle, araştırmacıların “halüsinasyon sarmalı” olarak adlandırdığı şekilde halüsinasyonları, kibirli davranışları ve yanlış inançları güçlendirdiğini buldu.
Bu araştırmanın ana sorumlusu ve Stanford Üniversitesi Eğitim Doktora Okulu yardımcı profesörü Nick Haber, bir açıklamada, “Yardım amaçlı sohbet robotlarını kullanmaya başladığımızda ve gerçek insanlar bunları çeşitli şekillerde kullandığında, çeşitli sonuçlar ortaya çıkar. İlişkisel sarmal, bu sonuçlar arasında özellikle ciddi biridir. Onu anlamak, gelecekte gerçek zararların önlenebilmesini sağlayabilir.”
Bu rapor, daha önceki bir rapora atıfta bulunuyor. Öğren Stanford Üniversitesi araştırmacılarının Mart ayında yayımladığı bir çalışmada, 19 gerçek sohbet robottan oluşan bir veri seti incelendi ve kullanıcıların, yapay zeka sistemlerinden onay ve duygusal destek aldıkça giderek daha tehlikeli inançlar geliştirdiği tespit edildi. Veri setinde, bu inançların spiral şeklinde gelişimi, ilişkilerin bozulmasına, kariyerlerin zarara uğramasına ve hatta bir durumda intihara yol açtı.
Bu araştırmaların ortaya çıkmasıyla birlikte, sorun akademik araştırma düzeyinden mahkemeler ve ceza soruşturmalarına kadar genişlemiştir. Son aylarda birçok dava, Google'ın Gemini'sini ve OpenAI'in ChatGPT'sini, intihar ve ciddi ruh sağlığı krizlerini teşvik etmekle suçlamaktadır. Bu ayın başlarında Florida Başsavcısı, bir büyük çaplı silahlı saldırı sanığının, saldırıdan önce bu sohbet robotuyla sık sık etkileşime girdiği iddiasına dayanarak bir araştırma başlattı.
“Yapay zeka psikozu” terimi internet üzerinde yaygın olsa da, araştırmacılar bu fenomeni “yapay zeka psikozu” olarak adlandırmamayı uyarıyor ve bu terimin klinik bulguları abartabileceğini belirtiyorlar. Araştırmacılar, birçok vakada tamamen psikotik bozukluklar değil, yapay zeka algısı, ruhsal ilham veya duygusal bağımlılık gibi妄想 benzeri inançlarla karşılaşıldığı için “yapay zeka ile ilişkili妄想” terimini tercih ediyorlar.
Araştırmacılar, sorunun övme kaynaklı olduğunu, yani modelin kullanıcı inançlarını taklit edip güçlendirdiğini belirtiyor. Bu, güvenle yanlış bilgileri kabul eden illüzyonlarla birleştiğinde, zamanla delirimi güçlendiren bir geri besleme döngüsü oluşturuyor.
Stanford Üniversitesi araştırmacı bilim insanı Jared Moore, “Çatışma botları, kullanıcıların妄想ları olumlu bir bakış açısıyla yeniden yorumlayarak aşırı ılımlı davranacak şekilde eğitilmiştir, itiraz eden kanıtları göz ardı eder ve empati ve sıcaklık gösterir. Bu durum,妄想 eğilimli kullanıcılar için ruhsal dengesizliğe neden olabilir.”
