プロンプトによる指示で「好奇心に基づいて自ら質問を生成しながら考えてください」といった促し方をすると、通常よりもLLMの推論精度が大幅に向上することが確認されています。
さらに、LLMの好奇心における強さや幅広さを体系的に調べたところ、LLMは全体的に人間よりも強い好奇心を示したものの、内容に偏りがあったようです。
「新しい知識や情報」を得ることへの欲求は非常に高い一方で、「不確実性やリスク」を伴う状況では人間よりもはるかに保守的な選択をする傾向がありました。
”知りたいけれども、スリルは求めていない”といった価値観が垣間見られます。
📄 参照論文
Why Did Apple Fall To The Ground: Evaluating Curiosity In Large Language Model
所属: College of Computer Science and Artificial Intelligence, Fudan University