次回の更新記事:「AIっぽくて白ける」現象の正体(公開予定日:2026年05月01日)
AIDB Daily Papers

自信過剰は組み込まれている?LLMにおける過大な言語化された自信のメカニズム解析

原題: Wired for Overconfidence: A Mechanistic Perspective on Inflated Verbalized Confidence in LLMs
著者: Tianyi Zhao, Yinhan He, Wendy Zheng, Yujie Zhang, Chen Chen
公開日: 2026-04-01 | 分野: LLM NLP Transformer 解釈性 推論 機械学習 言語 研究 精度 モデル 自然言語処理

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • LLMが不正確な回答をする際、不確実性を示すよりも過剰に高い自信を表明する傾向があり、その内部メカニズムは不明確だった。
  • LLMにおける言語化された過信を、微分可能な内部信号として捉え、因果的にそれを増幅させる回路を特定し、推論時の再調整に役立てる。
  • 特定されたMLPブロックと注意ヘッドへの介入により、キャリブレーションが大幅に改善され、過信が軽減されることが示された。

Abstract

Large language models are often not just wrong, but emph{confidently wrong}: when they produce factually incorrect answers, they tend to verbalize overly high confidence rather than signal uncertainty. Such verbalized overconfidence can mislead users and weaken confidence scores as a reliable uncertainty signal, yet its internal mechanisms remain poorly understood. We present a circuit-level mechanistic analysis of this inflated verbalized confidence in LLMs, organized around three axes: capturing verbalized confidence as a differentiable internal signal, identifying the circuits that causally inflate it, and leveraging these insights for targeted inference-time recalibration. Across two instruction-tuned LLMs on three datasets, we find that a compact set of MLP blocks and attention heads, concentrated in middle-to-late layers, consistently writes the confidence-inflation signal at the final token position. We further show that targeted inference-time interventions on these circuits substantially improve calibration. Together, our results suggest that verbalized overconfidence in LLMs is driven by identifiable internal circuits and can be mitigated through targeted intervention.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事