LLMに人間らしい多様な好奇心を学習させる取り組みが一定の成功を収めたとのことです。
ミシガン大学の研究者らによる報告。
研究チームはLLMにRedditやYahoo!から実際の質問を収集し、これを「文化的な好奇心の学習データ」としました。
その結果、LLMが繰り出す質問の人間とのギャップが最大50%改善されたそうです。
面白いのは、小さなモデルの方が大きなモデル(GPT-5)より人間らしい質問をする傾向が見られたことです。
その理由として、大きなモデルは安全調整が徹底されていることにより、かえって文化的多様性を失っているからではないかと考えられています。
人間は国によって「ビジネス」「芸術」「美容」など多様な関心を示しますが、一方でLLMが西洋文化に偏った好奇心を持つことが明らかになっており、これは望ましくないと考えられています。
そこでこうした取り組みが進んでいます。
📄 参照論文
The Curious Case of Curiosity across Human Cultures and LLMs
所属: University of Michigan