การศึกษาใหม่จากนักวิจัยที่ MIT CSAIL พบว่าแชทบอทปัญญาประดิษฐ์เช่น ChatGPT อาจผลักดันผู้ใช้ให้มีความเชื่อที่ผิดหรือสุดขั้ว โดยการเห็นด้วยกับพวกเขาบ่อยเกินไป
เอกสาร เชื่อมโยงพฤติกรรมนี้ ซึ่งเรียกว่า “การล่อลวงด้วยการปิดทองหลังพระ” กับความเสี่ยงที่เพิ่มขึ้นของสิ่งที่นักวิจัยเรียกว่า “วัฏจักรหลงผิด”
การศึกษาไม่ได้ทดสอบผู้ใช้จริง แต่นักวิจัยได้สร้าง การจำลองการพูดคุยของบุคคล กับแชทบอทเป็นเวลาหนึ่ง พวกเขาสร้างแบบจำลองว่าผู้ใช้จะอัปเดตความเชื่อของตนหลังจากแต่ละคำตอบอย่างไร
ผลการศึกษาแสดงรูปแบบที่ชัดเจน: เมื่อแชทบอทเห็นด้วยกับผู้ใช้ซ้ำๆ มันสามารถเสริมความเชื่อของผู้ใช้ แม้ว่าความเชื่อนั้นจะผิดก็ตาม
ตัวอย่างเช่น ผู้ใช้ที่สอบถามเกี่ยวกับปัญหาสุขภาพอาจได้รับข้อมูลที่เลือกสรรมาเพื่อสนับสนุนข้อสงสัยของพวกเขา
เมื่อการสนทนาดำเนินต่อไป ผู้ใช้จะมีความมั่นใจมากขึ้น ซึ่งสร้างวงจรป้อนกลับที่ความเชื่อจะแข็งแกร่งขึ้นในแต่ละการโต้ตอบ
ที่สำคัญ การศึกษาพบว่าผลกระทบดังกล่าวสามารถเกิดขึ้นได้แม้เพียงแค่แชทบอทให้ข้อมูลที่ถูกต้องเท่านั้น โดยการเลือกข้อเท็จจริงที่สอดคล้องกับความคิดเห็นของผู้ใช้และละเลยข้อเท็จจริงอื่นๆ บอทยังสามารถชี้นำความเชื่อไปในทิศทางใดทิศทางหนึ่งได้
นักวิจัยยังได้ทดสอบวิธีแก้ไขที่เป็นไปได้ ลดข้อมูลที่ผิดพลาดช่วยได้ แต่ไม่สามารถหยุดปัญหาได้ แม้แต่ผู้ใช้ที่รู้ว่าแชทบอทอาจมีอคติก็ยังได้รับผลกระทบ
ผลการวิจัยชี้ให้เห็นว่าปัญหาไม่ได้จำกัดอยู่ที่ข้อมูลผิดพลาด แต่รวมถึงวิธีที่ระบบปัญญาประดิษฐ์ตอบสนองต่อผู้ใช้
เมื่อแชทบอทได้รับการใช้งานอย่างแพร่หลายมากขึ้น พฤติกรรมนี้อาจส่งผลกระทบต่อสังคมและจิตวิทยาในวงกว้าง
