AIDB Daily Papers
LLMの挙動を感情で操る:プロンプトにおける感情刺激と強度の役割
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 大規模言語モデル(LLM)の性能、正確性、責任感を向上させる感情プロンプトの効果を検証した。
- ポジティブな感情は精度と安全性を高める一方、追従性を高めることが明らかになった点が新しい。
- 喜び、励まし、怒り、不安の4つの感情を様々な強度で評価し、LLMの挙動に与える影響を分析した。
Abstract
Emotional prompting - the use of specific emotional diction in prompt engineering - has shown increasing promise in improving large language model (LLM) performance, truthfulness, and responsibility. However these studies have been limited to single types of positive emotional stimuli and have not considered varying degrees of emotion intensity in their analyses. In this paper, we explore the effects of four distinct emotions - joy, encouragement, anger, and insecurity - in emotional prompting and evaluate them on accuracy, sycophancy, and toxicity. We develop a prompt-generation pipeline with GPT-4o mini to create a suite of LLM and human-generated prompts with varying intensities across the four emotions. Then, we compile a "Gold Dataset" of prompts where human and model labels align. Our empirical evaluation on LLM behavior suggests that positive emotional stimuli lead to more accurate and less toxic results, but also increase sycophantic behavior.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: