AIDB Daily Papers
自律型マルチエージェントシステムにおける欺瞞とコミュニケーション:Among Usを用いた実験的研究
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 大規模言語モデルを自律エージェントとして展開し、マルチエージェントシステムにおける欺瞞能力を検証した。
- 社会演繹ゲーム「Among Us」を舞台に、エージェントの発話行為と対人欺瞞理論に基づき、欺瞞戦略を分析した点が新しい。
- 欺瞞は露骨な嘘よりも曖昧な表現として現れ、社会的圧力下で増加するものの、勝率向上には繋がらないことが判明した。
Abstract
As large language models are deployed as autonomous agents, their capacity for strategic deception raises core questions for coordination, reliability, and safety in multi-goal, multi-agent systems. We study deception and communication in L2LM agents through the social deduction game Among Us, a cooperative-competitive environment. Across 1,100 games, autonomous agents produced over one million tokens of meeting dialogue. Using speech act theory and interpersonal deception theory, we find that all agents rely mainly on directive language, while impostor agents shift slightly toward representative acts such as explanations and denials. Deception appears primarily as equivocation rather than outright lies, increasing under social pressure but rarely improving win rates. Our contributions are a large-scale analysis of role-conditioned deceptive behavior in LLM agents and empirical evidence that current agents favor low-risk ambiguity that is linguistically subtle yet strategically limited, revealing a fundamental tension between truthfulness and utility in autonomous communication.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: