AIDB Daily Papers
LLMツールにおけるアイデンティティの錯覚を打ち破る
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLMツールが出力するエージェンシーや理解の錯覚が、検証行動と信頼度を低下させる問題を指摘。
- 既存の対策は体系的な制約がなく、出力レジスタ向けのルールセットを提案し、検証行動の改善を目指す。
- 7つのルールを適用した結果、擬人化マーカーが大幅に減少し、機械的な表現へとシフトしたことを確認。
Abstract
Large language models (LLMs) in research and development toolchains produce output that triggers attribution of agency and understanding -- a cognitive illusion that degrades verification behavior and trust calibration. No existing mitigation provides a systematic, deployable constraint set for output register. This paper proposes seven output-side rules, each targeting a documented linguistic mechanism, and validates them empirically. In 780 two-turn conversations (constrained vs. default register, 30 tasks, 13 replicates, 1560 API calls), anthropomorphic markers dropped from 1233 to 33 (>97% reduction, p < 0.001), outputs were 49% shorter by word count, and adapted AnthroScore confirmed the shift toward machine register (-1.94 vs. -0.96, p < 0.001). The rules are implemented as a configuration-file system prompt requiring no model modification; validation uses a single model (Claude Sonnet 4). Output quality under the constrained register was not evaluated. The mechanism is extensible to other domains.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: