AI同士による協力を原始的環境のシミュレーションで観察したところ、モデルによって協力行動の能力に大きな差があることが明らかになっています。
GPTとClaudeは保守的で、早めに安定した採取量に落ち着く傾向がありました。
また、DeepSeekは最も探索的で適応力があり、実験の制限時間まで生き延びることが多かったそうです。
なお、小型モデルは環境によっては早期に資源を使い果たして崩壊する様子が見られました。
しかし、いずれにせよAI同士の協力を維持するにはメカニズムが必要でした。
「他人の成功を見習う方針」「多数決ルール」「罰則」など。
これらを取り除くと、社会は急速に崩壊したのです。
以上から、AIを社会に組み込む際にはモデルの選択や与えるルールが性能に影響することが示唆されています。
📄 参照論文
The Role of Social Learning and Collective Norm Formation in Fostering Cooperation in LLM Multi-Agent Systems
所属: Max-Planck Institute for Human Development