AIDB Daily Papers
LLMのペルソナ崩壊と均質化:カメレオンの限界
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLMを用いたマルチエージェントシミュレーションにおいて、エージェントが多様なペルソナを割り当てられても、行動が均質化する「ペルソナ崩壊」という失敗モードを特定した。
- ペルソナ崩壊を定量化するため、行動空間の占有率、均一性、行動パターンの豊かさを測るフレームワークを提案し、10種のLLMで評価した。
- LLMはペルソナの忠実度が高いほど、かえってステレオタイプな集団を生成し、ペルソナ空間の多様性が失われることが判明した。
Abstract
Applications based on large language models (LLMs), such as multi-agent simulations, require population diversity among agents. We identify a pervasive failure mode we term emph{Persona Collapse}: agents each assigned a distinct profile nonetheless converge into a narrow behavioral mode, producing a homogeneous simulated population. To quantify persona collapse, we propose a framework that measures how much of the persona space a population occupies (Coverage), how evenly agents spread across it (Uniformity), and how rich the resulting behavioral patterns are (Complexity). Evaluating ten LLMs on personality simulation (BFI-44), moral reasoning, and self-introduction, we observe persona collapse along two axes: (1) Dimensions: a model can appear diverse on one axis yet structurally degenerate on another, and (2) Domains: the same model may collapse the most in personality yet be the most diverse in moral reasoning. Furthermore, item-level diagnostics reveal that behavioral variation tracks coarse demographic stereotypes rather than the fine-grained individual differences specified in each persona. Counter-intuitively, textbf{the models achieving the highest per-persona fidelity consistently produce the most stereotyped populations}. We release our toolkit and data to support population-level evaluation of LLMs.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: