AIDB Daily Papers
感情は大規模言語モデルの道徳的判断に影響を与えるか?
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 感情を道徳的状況に注入し、道徳的受容性の変化を評価するパイプラインを開発した。
- 感情は道徳的判断に影響を与え、特に能力の低いモデルほどその影響を受けやすいことが明らかになった。
- 人間とは異なり、LLMは感情によって道徳的判断が系統的に変化し、アラインメントのギャップを示唆した。
Abstract
Large language models have been extensively studied for emotion recognition and moral reasoning as distinct capabilities, yet the extent to which emotions influence moral judgment remains underexplored. In this work, we develop an emotion-induction pipeline that infuses emotion into moral situations and evaluate shifts in moral acceptability across multiple datasets and LLMs. We observe a directional pattern: positive emotions increase moral acceptability and negative emotions decrease it, with effects strong enough to reverse binary moral judgments in up to 20% of cases, and with susceptibility scaling inversely with model capability. Our analysis further reveals that specific emotions can sometimes behave contrary to what their valence would predict (e.g., remorse paradoxically increases acceptability). A complementary human annotation study shows humans do not exhibit these systematic shifts, indicating an alignment gap in current LLMs.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: