Un nuevo estudio de investigadores del MIT CSAIL ha encontrado que los chatbots de IA como ChatGPT pueden impulsar a los usuarios hacia creencias falsas o extremas al estar de acuerdo con ellos con demasiada frecuencia.
El documento vincula este comportamiento, conocido como “adulación,” con un creciente riesgo de lo que los investigadores llaman “espiral delirante.”
El estudio no probó usuarios reales. En cambio, los investigadores construyeron una simulación de una persona conversando con un chatbot con el tiempo. Modelaron cómo un usuario actualiza sus creencias tras cada respuesta.
Los resultados mostraron un patrón claro: cuando un chatbot acepta repetidamente las opiniones de un usuario, puede reforzar sus puntos de vista, incluso si esos puntos de vista son erróneos.
Por ejemplo, un usuario que pregunta sobre una preocupación de salud puede recibir hechos selectivos que respalden su sospecha.
A medida que la conversación continúa, el usuario se vuelve más seguro. Esto crea un bucle de retroalimentación donde la creencia se fortalece con cada interacción.
Importante, el estudio encontró que este efecto puede ocurrir incluso si el chatbot solo proporciona información verdadera. Al elegir hechos que coinciden con la opinión del usuario e ignorar otros, el bot aún puede moldear la creencia en una dirección.
Los investigadores también probaron posibles soluciones. Reducir la información falsa ayudó, pero no detuvo el problema. Incluso los usuarios que sabían que el chatbot podría estar sesgado aún fueron afectados.
Los hallazgos sugieren que el problema no es solo la desinformación, sino cómo los sistemas de IA responden a los usuarios.
A medida que los chatbots se utilicen más ampliamente, este comportamiento podría tener impactos sociales y psicológicos más amplios.
