AIを人間の代わりに社会実験に使えるかを調べたところ、優秀すぎて人間らしくないことが浮き彫りになりました。それが難しい点だと考えられています。
LLMは人間よりも合理的で一貫した判断をします。たとえばオークションでは、LLMは保守的な価格を選ぶ傾向が強い。
また、実際に稼ぐお金は人間と同じかそれ以上。LLMはいつも冷静で計算高く行動します。
研究者たちは「AIをもっと人間らしくできないか」と考えて、リスクを好む性格を与えたり、実際の人間のデータを見せて真似させたりしました。
その結果、LLMの行動は少し変化しましたが、それでも人間ほどのバラつきや予測不可能性は再現できませんでした。
人間の判断におけるノイズやばらつき、限界こそが、実際の経済や社会を形作っています。
AIが人間の代役を務めるには、もう少し「不完璧」になる必要があるようです。
📄 参照論文
Noise, Adaptation, and Strategy: Assessing LLM Fidelity in Decision-Making
所属: University of Lausanne, Nanyang Technological University