次回の更新記事:「AIっぽくて白ける」現象の正体(公開予定日:2026年05月01日)
AIDB Daily Papers

LLMの挙動を感情で操る:プロンプトにおける感情刺激と強度の役割

原題: The Role of Emotional Stimuli and Intensity in Shaping Large Language Model Behavior
著者: Ameen Patel, Felix Lee, Kyle Liang, Joseph Thomas
公開日: 2026-04-07 | 分野: LLM 安全性 機械学習 AI 感情 プロンプト 倫理 精度 自然言語処理 バイアス ハルシネーション 大規模言語モデル

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 大規模言語モデル(LLM)の性能、正確性、責任感を向上させる感情プロンプトの効果を検証した。
  • ポジティブな感情は精度と安全性を高める一方、追従性を高めることが明らかになった点が新しい。
  • 喜び、励まし、怒り、不安の4つの感情を様々な強度で評価し、LLMの挙動に与える影響を分析した。

Abstract

Emotional prompting - the use of specific emotional diction in prompt engineering - has shown increasing promise in improving large language model (LLM) performance, truthfulness, and responsibility. However these studies have been limited to single types of positive emotional stimuli and have not considered varying degrees of emotion intensity in their analyses. In this paper, we explore the effects of four distinct emotions - joy, encouragement, anger, and insecurity - in emotional prompting and evaluate them on accuracy, sycophancy, and toxicity. We develop a prompt-generation pipeline with GPT-4o mini to create a suite of LLM and human-generated prompts with varying intensities across the four emotions. Then, we compile a "Gold Dataset" of prompts where human and model labels align. Our empirical evaluation on LLM behavior suggests that positive emotional stimuli lead to more accurate and less toxic results, but also increase sycophantic behavior.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事