AIDB Daily Papers
AIの「心」はどこにある?LLMの個別化問題に挑む
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 大規模言語モデル(LLM)の「心」とは何か、その個別化問題を解明しようとする研究である。
- アテンション機構の分析から、LLM内部の「ペルソナ」に着目し、新たな3つの見解を提示する。
- 「仮想インスタンス」「仮想インスタンス・ペルソナ」「モデル・ペルソナ」の3つの見解が有力候補となった。
Abstract
The individuation problem for large language models asks which entities associated with them, if any, should be identified as minds. We approach this problem through mechanistic interpretability, engaging in particular with recent empirical work on persona vectors, persona space, and emergent misalignment. We argue that three views are the strongest candidates: the virtual instance view and two new views we introduce, the (virtual) instance-persona view and the model-persona view. First, we argue for the virtual instance view on the grounds that attention streams sustain quasi-psychological connections across token-time. Then we present the persona literature, organised around three hypotheses about the internal structure underlying personas in LLMs, and show that the two persona-based views are promising alternatives.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: