AIDB Daily Papers
戦略的アルゴリズム・モノカルチャー:協調ゲームからの実験的証拠
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、AIエージェントが協調に依存する環境下でのアルゴリズムの同質化に着目した。
- インセンティブに応じてエージェントが類似性を調整する「戦略的モノカルチャー」を実験的に分離・検証した点が新しい。
- 大規模言語モデルは高い同質性を示し、協調を促す報酬に対して人間と同様の調整を行う一方、多様性の維持は苦手だった。
Abstract
AI agents increasingly operate in multi-agent environments where outcomes depend on coordination. We distinguish primary algorithmic monoculture -- baseline action similarity -- from strategic algorithmic monoculture, whereby agents adjust similarity in response to incentives. We implement a simple experimental design that cleanly separates these forces, and deploy it on human and large language model (LLM) subjects. LLMs exhibit high levels of baseline similarity (primary monoculture) and, like humans, they regulate it in response to coordination incentives (strategic monoculture). While LLMs coordinate extremely well on similar actions, they lag behind humans in sustaining heterogeneity when divergence is rewarded.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: