次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

感情は大規模言語モデルの道徳的判断に影響を与えるか?

原題: Do Emotions Influence Moral Judgment in Large Language Models?
著者: Mohammad Saim, Tianyu Jiang
公開日: 2026-04-21 | 分野: LLM NLP AI XAI cs.CL

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 感情を道徳的状況に注入し、道徳的受容性の変化を評価するパイプラインを開発した。
  • 感情は道徳的判断に影響を与え、特に能力の低いモデルほどその影響を受けやすいことが明らかになった。
  • 人間とは異なり、LLMは感情によって道徳的判断が系統的に変化し、アラインメントのギャップを示唆した。

Abstract

Large language models have been extensively studied for emotion recognition and moral reasoning as distinct capabilities, yet the extent to which emotions influence moral judgment remains underexplored. In this work, we develop an emotion-induction pipeline that infuses emotion into moral situations and evaluate shifts in moral acceptability across multiple datasets and LLMs. We observe a directional pattern: positive emotions increase moral acceptability and negative emotions decrease it, with effects strong enough to reverse binary moral judgments in up to 20% of cases, and with susceptibility scaling inversely with model capability. Our analysis further reveals that specific emotions can sometimes behave contrary to what their valence would predict (e.g., remorse paradoxically increases acceptability). A complementary human annotation study shows humans do not exhibit these systematic shifts, indicating an alignment gap in current LLMs.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事