次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMは感情を努力で評価?人間との乖離

2025.08.12
推論・思考(論理推論、Chain-of-Thought、数学的推論、問題解決)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

人間が感情を処理する時は「楽しいか不快か」を重要視しがちなのに対し、LLMは「どれだけ努力が必要か」を異常に重視すると示唆されています。
ペンシルベニア州立大学の研究者らによる報告。

実験によると、LLMは怒りを「不快な感情」としてではなく「不公平だと感じる感情」として理解する傾向がありました。
また恐怖についても「怖い感情」というより「大変な努力を要する状況への反応」として捉えていました。

なお、同じ感情でもモデルによって違う解釈をすることがあると分かりました。なかでもGoogleのGeminiは他のモデルとは著しく異なる感情理解を示していました(「退屈」をポジティブと捉える等)。

要するに、LLMは人間とは根本的に異なる方法で感情を捉えている可能性があります。AIを感情が関わる場面で使用する際には十分注意が必要であることを意味しています。

📄 参照論文

Do Machines Think Emotionally? Cognitive Appraisal Analysis of Large Language Models

著者: Sree Bhattacharyya, Lucas Craig, Tharun Dilliraj, Jia Li, James Z. Wang

所属: The Pennsylvania State University

関連記事