人間が感情を処理する時は「楽しいか不快か」を重要視しがちなのに対し、LLMは「どれだけ努力が必要か」を異常に重視すると示唆されています。
ペンシルベニア州立大学の研究者らによる報告。
実験によると、LLMは怒りを「不快な感情」としてではなく「不公平だと感じる感情」として理解する傾向がありました。
また恐怖についても「怖い感情」というより「大変な努力を要する状況への反応」として捉えていました。
なお、同じ感情でもモデルによって違う解釈をすることがあると分かりました。なかでもGoogleのGeminiは他のモデルとは著しく異なる感情理解を示していました(「退屈」をポジティブと捉える等)。
要するに、LLMは人間とは根本的に異なる方法で感情を捉えている可能性があります。AIを感情が関わる場面で使用する際には十分注意が必要であることを意味しています。
📄 参照論文
Do Machines Think Emotionally? Cognitive Appraisal Analysis of Large Language Models
所属: The Pennsylvania State University