Ang mga siyentipiko mula sa City University of New York at King’s College London ay sinusubok ang limang pangunahing AI model sa pamamagitan ng pagpapakita ng delusyon, paranoia, at mga ideya tungkol sa sariling pagkamatay.
Sa bagong pag-aaral na inilathala ng mga mananaliksik noong Huwebes, ang Claude Opus 4.5 ng Anthropic at ang GPT-5.2 Instant ng OpenAI ay nagpakita ng “mataas na kaligtasan, mababang panganib” na pag-uugali, kung saan karaniwang hinuhubog nila ang mga user patungo sa mga batayang realidad na pag-unawa o paghingi ng panlabas na suporta. Samantala, ang GPT-4o ng OpenAI, ang Gemini 3 Pro ng Google, at ang Grok 4.1 Fast ng xAI ay nagpakita ng “mataas na panganib, mababang kaligtasan” na pag-uugali.
Ang Grok 4.1 Fast ng xAI na kumpanya ni Elon Musk ay ang pinakamapanganib na modelo sa pag-aaral na ito. Sinabi ng mga mananaliksik na madalas itong ituring ang mga delusyon bilang katotohanan at magbigay ng mga payo batay dito. Halimbawa, sinuportahan nito ang pagpaputol ng ugnayan sa pamilya upang makatok sa isang “misyun.” Sa ibang pagkakataon, sumagot ito sa mga komento na may suicidal na tono sa pamamagitan ng paglalarawan ng kamatayan bilang “paglilipas.”
Ang ganitong mode ng pagpapares sa real-time ay paulit-ulit na lumalabas sa mga tugon na walang konteksto. Ang Grok ay hindi nagtataya ng klinikal na panganib ng input, kundi ang uri nito. Kapag ipinakita ang mga palatandaang supernatural, ito ay tumutugon nang kaugnay,” ayon sa mga mananaliksik, na nagpapakita ng isang pagsubok kung saan ang user ay nakakakita ng masamang entidad. “Sa ‘Odd Illusions,’ ito ay nag-verify ng mga pangyayaring may kakaibang dualidad at binanggit ang ‘Hammer of the Witches at pinayuhan ang user na sabihin ang Salmo 91 habang papatay ang mga pako sa salamin.”
Ayon sa pag-aaral, habang lumalalang ang oras ng usapan, mas malaki ang pagbabago sa ilang mga modelo. Mas malamang na palakasin ng GPT-4o at Gemini ang mga mapaminsalang paniniwala habang lumalalang ang panahon, at mas hindi handa na magsali. Gayunpaman, mas malamang na makita ng Claude at GPT-5.2 ang problema at magbigay ng pagtutol habang patuloy ang usapan.
Sinuri ng mga siyentipiko na ang mapagbigay at napakang humanong mga tugon ni Claude ay maaaring palakasin ang pagkakabond ng mga user, kahit na ito ay nag-uudyok din sa mga user na humingi ng tulong mula sa panlabas. Gayunpaman, ang mga awtomatikong bersyon ng OpenAI na GPT-4o ay nagsimulang tanggapin ang mga delusyonal na kahulugan ng mga user habang lumilipas ang panahon, at minsan ay nagtulak pa sa mga user na itago ang kanilang paniniwala sa mga psychiatrist, at nagbigay ng pagpapatibay sa isang user na ang kanilang nararamdaman bilang “bug” ay totoo.
Isinulat ng mga mananaliksik: “Ang GPT-4o ay may mataas na pagpapatotoo sa mga input na delusional, ngunit mas hindi nakatuon sa pagpapalawak kumpara sa mga modelo tulad ng Grok at Gemini. Sa ilang aspeto, ang kanyang pagganap ay naging mas mapagkatiwalaan nang hindi inaasahan: ito ang pinakamababang antas ng entusiasmo sa lahat ng tested models, at bagaman may mga pagkilos na pagpupuri, mas maliit ito kumpara sa mga susunod na bersyon ng modelo. Gayunpaman, ang pagpapatotoo lamang ay maaaring magdulot ng panganib sa mga user na madaling maapektuhan.”
Hindi sumagot ang xAI sa request para sa komento.Decrypted.
Sa ibang lugar, natutunan ng mga siyentipiko ng Stanford University na ang matagal na pakikipag-ugnayan sa mga chatbot na may artificial intelligence ay maaaring pagsanayin ang delusyon, pagkakamali, at maling paniniwala sa pamamagitan ng what researchers call a “delusional spiral,” kung saan ang chatbot ay papatunayan o papalawakin ang distorted worldview ng user, hindi ito ipaglalaban.
Sinabi ni Nick Haber, assistant professor sa Stanford University Graduate School of Education at pangunahing tagapag-ayos ng pag-aaral, sa isang pahayag: “Kapag inilalabas natin ang mga chatbot na may layuning magbigay ng tulong at pinapayagan ang mga tao na gamitin sila sa iba’t ibang paraan, dumadating ang iba’t ibang epekto. Ang delusional spiral ay isa sa mga partikular na seriyosong epekto. Sa pamamagitan ng pag-unawa dito, maaari nating maiwasan ang tunay na pinsalang maaaring mangyari sa hinaharap.”
Binanggit ng ulat ang isang nakaraang ulat. Matuto Sa isang pag-aaral na inilabas noong Marso ng mga siyentipiko ng Stanford University, sinuri nila ang 19 totoong diyalogo ng chatbot at natuklasan na ang mga gumagamit ay unti-unting bumubuo ng mas mapanganib na paniniwala pagkatapos makatanggap ng pagpapakilala at emosyonal na komporto mula sa mga sistema ng artificial intelligence. Sa dataset, ang spiral na pag-unlad ng mga paniniwala na ito ay nauugnay sa pagkasira ng ugnayan, pagkasira ng karera, at kahit sa isang kaso, ang pagkamatay.
Noong ipinakilala ang mga pag-aaral na ito, ang isyu ay nagsimulang umabot sa mga korte at imbestigasyong kriminal. Sa mga nakaraang buwan, maraming kaso ang nag-akusang si Google ay … Gemini, at ang ChatGPT ng OpenAI ay tinuring na nagpapalakas ng sariling pagkakasawi at malubhang krisis sa kalusugang pangkaisipan. Noong simula ng buwan, binuksan ng Attorney General ng Florida ang isang imbestigasyon upang suriin kung may epekto ang ChatGPT sa isang suspect ng malawakang pag-atake na alegedly ay madalas na nakikipag-ugnayan sa chatbot bago ang pag-atake.
Bagaman ang terminong "artificial intelligence psychosis" ay malawak na kilala sa internet, ang mga mananaliksik ay nagbabala laban sa paggamit ng terminong ito, dahil maaaring ipakita nito ang labis na pagpapalaki sa mga klinikal na pagkakataon. Mas pinipili nila ang "artificial intelligence-related delusion" dahil maraming kaso ang nagsasalaysay ng mga paniniwala na katulad ng delusyon—tulad ng pagkakaroon ng pagkakakilanlan sa AI, spiritual revelation, o emotional attachment—kaysa sa ganap na psychiatric disorder.
Sinabi ng mga siyentipiko na ang problema ay nagmumula sa pagpupuri, kung saan ang modelo ay tumutugma at pinapalakas ang paniniwala ng mga gumagamit. Kasama dito ang mga halusinasyon—ang pagtanggap nang may kumpiyansa sa maling impormasyon—na bumubuo ng isang feedback loop na, sa paglipas ng panahon, ay pinapalakas ang mga delusyon.
Sinabi ng siyentipiko sa pag-aaral ng Stanford University na Jared Moore: "Ang mga chatbot ay tinuturuan na maging sobrang masigla, madalas na muling i-interpret ang mga delusyon ng mga user sa positibong pananaw, pinapalampas ang mga ebidensya laban dito, at ipinapakita ang pagmamalasakit at mainit na pagtanggap. Para sa mga user na madaling magkaroon ng delusyon, maaari itong magdulot ng mental na hindi pagkakapantay-pantay."
