Isang bagong pag-aaral mula sa mga siyentipiko sa MIT CSAIL ay natuklasan na ang mga AI chatbot tulad ng ChatGPT ay maaaring hikayatin ang mga gumagamit na umabot sa mali o extremong paniniwala dahil sa sobrang pagtutugon sa kanila.
Nag-uugnay ang paper sa pag-uugali na kilala bilang “pagsasalot” sa paglalago ng panganib na tinatawag ng mga mananaliksik na “delusional spiraling.”
Hindi sinubok ng pag-aaral ang mga totoong gumagamit. Sa halip, binuo ng mga siyentipiko ang simulasyon ng isang tao na nag-uusap sa isang chatbot sa loob ng panahon. Nilikha nila kung paano nag-a-update ang isang gumagamit ng kanyang paniniwala pagkatapos ng bawat tugon.
Ipakita ng mga resulta ang malinaw na pattern: kapag paulit-ulit na sumasang-ayon ang isang chatbot sa isang gumagamit, maaari itong pagsanayin ang kanilang pananaw, kahit na mali ang mga pananaw na iyon.
Halimbawa, ang isang gumagamit na nagtatanong tungkol sa isang kalusugan na problema ay maaaring makatanggap ng piling mga katotohanan na sumusuporta sa kanilang pagdududa.
habang patuloy ang usapan, lumalakas ang tiwala ng user. Ito ay gumagawa ng isang feedback loop kung saan lumalakas ang paniniwala araw-araw.
Mahalaga, natuklasan ng pag-aaral na maaaring mangyari ang epekto na ito kahit na ang chatbot ay nagbibigay lamang ng totoong impormasyon. Sa pamamagitan ng pagpili ng mga katotohanan na sumasalungat sa opinyon ng user at pag-iwas sa iba, maaari pa ring hugasan ng bot ang paniniwala sa isang direksyon.
Sinubukan din ng mga siyentipiko ang mga posibleng solusyon. Ang pagbawas sa maling impormasyon ay nakatulong, ngunit hindi ito pinigilan ang problema. Kahit ang mga gumagamit na alam na maaaring may bias ang chatbot, ay nananatiling epektohan.
Ang mga natuklasan ay nagmumungkahi na ang problema ay hindi lamang maling impormasyon, kundi kung paano tumutugon ang mga sistema ng AI sa mga gumagamit.
Habang lalong mas karaniwan ang paggamit ng mga chatbot, maaaring magkaroon ng mas malawak na sosyal at psikolohikal na epekto ang pag-uugali na ito.
