次回の更新記事:「AIっぽくて白ける」現象の正体(公開予定日:2026年05月01日)
AIDB Daily Papers

LLMツールにおけるアイデンティティの錯覚を打ち破る

原題: Breaking the Illusion of Identity in LLM Tooling
著者: Marek Miller
公開日: 2026-04-08 | 分野: LLM AI 評価 プロンプト 自然言語処理 ソフトウェアエンジニアリング 大規模言語モデル

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • LLMツールが出力するエージェンシーや理解の錯覚が、検証行動と信頼度を低下させる問題を指摘。
  • 既存の対策は体系的な制約がなく、出力レジスタ向けのルールセットを提案し、検証行動の改善を目指す。
  • 7つのルールを適用した結果、擬人化マーカーが大幅に減少し、機械的な表現へとシフトしたことを確認。

Abstract

Large language models (LLMs) in research and development toolchains produce output that triggers attribution of agency and understanding -- a cognitive illusion that degrades verification behavior and trust calibration. No existing mitigation provides a systematic, deployable constraint set for output register. This paper proposes seven output-side rules, each targeting a documented linguistic mechanism, and validates them empirically. In 780 two-turn conversations (constrained vs. default register, 30 tasks, 13 replicates, 1560 API calls), anthropomorphic markers dropped from 1233 to 33 (>97% reduction, p < 0.001), outputs were 49% shorter by word count, and adapted AnthroScore confirmed the shift toward machine register (-1.94 vs. -0.96, p < 0.001). The rules are implemented as a configuration-file system prompt requiring no model modification; validation uses a single model (Claude Sonnet 4). Output quality under the constrained register was not evaluated. The mechanism is extensible to other domains.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事