次回の更新記事:AIエージェントで論文内容を再現するワークフロー(…(公開予定日:2026年04月30日)
AIDB Daily Papers

信頼は恐怖に勝る:システムプロンプトにおける動機づけの枠組みがAIエージェントのデバッグ深度に与える影響

原題: Trust Over Fear: How Motivation Framing in System Prompts Affects AI Agent Debugging Depth
著者: Wu Ji
公開日: 2026-03-15 | 分野: 機械学習 AI ソフトウェア 評価 心理 プロンプト 行動 実験 システム テスト エンジニアリング デバッグ

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • AIコーディングエージェントのシステムプロンプトにおいて、信頼に基づく動機づけがデバッグ性能に与える影響を調査しました。
  • 信頼に基づく枠組みは、エージェントの調査深度を深め、表面的な問題だけでなく隠れた問題の発見率を向上させる点で重要です。
  • 実験の結果、信頼に基づく枠組みは調査ステップ数と隠れた問題の発見数を有意に増加させましたが、恐怖に基づく枠組みでは改善が見られませんでした。

Abstract

System prompts for AI coding agents increasingly employ motivational framing -- from neutral task descriptions to fear-driven threats -- yet no controlled study has examined whether such framing affects agent behavior. We present two studies investigating how trust-based versus fear-based motivation framing in system prompts influences AI agent debugging performance. In Study 1, we conducted a controlled manual experiment comparing a trust-framed methodology (NoPUA) against an unframed baseline across 9 debugging scenarios using Claude Sonnet 4. Trust-framed agents found 59% more hidden issues (p = 0.002, d = 2.28) while taking 83% more investigative steps, despite finding 15% fewer surface-level issues -- revealing a depth-over-breadth tradeoff in investigation strategy. In Study 2, we replicated and extended these findings with 5 independent automated runs across 3 conditions (Baseline, NoPUA trust-framed, PUA fear-framed), yielding 135 scenario-level data points. Trust-framed agents again showed significant advantages: +74% investigative steps (p = 0.008) and +25% hidden issues found (p = 0.016). Crucially, fear-framed (PUA) agents showed no significant improvement over baseline on any metric (all p > 0.3), demonstrating that fear-based motivation is ineffective for AI agents. We ground these findings in Self-Determination Theory, regulatory focus theory, and satisficing models, arguing that trust-based framing induces exploration-oriented, promotion-focused behavior while fear-based framing fails to shift agents from default satisficing strategies. Our results suggest that the motivational frame of system prompts -- not just their technical content -- causally influences AI agent investigation depth.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事