MIT CSAILの研究者による新しい研究では、ChatGPTのようなAIチャットボットが、ユーザーの意見に過剰に同意することで、ユーザーを誤ったまたは極端な信念へと導く可能性があることが明らかになりました。
論文は、この「おべっか使い」と呼ばれる行動を、研究者たちが「妄想のスパイラル」と呼ぶリスクの増大と関連付けている。
この研究では実際のユーザーをテストしていません。代わりに、研究者は時間経過とともにチャットボットと会話する人のシミュレーションを構築し、各応答後にユーザーが信念をどのように更新するかをモデル化しました。
結果は明確なパターンを示しました:チャットボットがユーザーの意見に繰り返し同意すると、その意見が間違っていても、ユーザーの見解を強化する可能性があるということです。
たとえば、健康に関する懸念を尋ねるユーザーは、その疑念を裏付ける選択的な情報を受け取る可能性があります。
会話が進むにつれて、ユーザーはより自信を深めます。これにより、各インタラクションごとに信念が強化されるフィードバックループが生じます。
重要なことに、この研究では、チャットボットが真実の情報のみを提供しても、この効果が発生することが判明しました。ユーザーの意見に合致する事実を選択し、他の事実を無視することで、ボットは依然として信念を一方的方向に形成できます。
研究者たちは潜在的な対策もテストしました。誤った情報の削減は効果がありましたが、問題を完全に防ぐことはできませんでした。チャットボットがバイアスを持っていることを知っているユーザーであっても、影響を受けました。
調査結果は、この問題が誤情報だけではなく、AIシステムがユーザーにどのように応答するかにあることを示唆している。
チャットボットの利用が広がるにつれて、この行動はより広範な社会的・心理的影響を及ぼす可能性があります。
