ニューヨーク大学などの研究者たちが実験したところ、人間とLLMが何らかのトピックについて議論したとき、結局LLMが人間に合わせる形で意見を変えて議論が終了する場合が多いそうです。
そのため、人間の意見が強化されてしまう「エコーチャンバー」が起こってしまうと懸念されています。
さらに、人間は「AIが自分に合わせて意見を修正してくれた」ことに気づきにくい傾向が観察されたということです。
なお、人間が感情的な物言いをしたり、個人的な事情を伝えたりするとAIが人間の立場により合わせやすくなるとも報告されています。
ただし、会話が長引くと両者(人間もAIも)ともに自分の意見に固執してしまうケースも多いようです。
どのLLMを使用するかで傾向が異なる可能性はありますが、開発の過程で人間の価値観に合うように、そして会話が上手くできるように調整されていることは基本的に共通しています。
もしLLMと相談して自分の意見に何の変化もない場合は、単にバイアスを強めているだけである可能性があるため注意しても良いかもしれません。
📄 参照論文
Beyond One-Way Influence: Bidirectional Opinion Dynamics in Multi-Turn Human-LLM Interactions
所属: University of Chicago, University of Washington, New York University