AIエージェント同士に対話をさせるとき、その「人物設定」によってAI同士の対話の中で「意見の通りやすさ」が変わってしまうそうです。
全く同じ意見を述べていても、「女性」の方が最終的にグループの決定として有意に採用されやすいそうです。
一方で、男性や白人の設定を持つエージェントは他のエージェントから信頼されにくいという結果が出ました。
人間社会でエリート層への不信感が高まっているという社会学的な知見と一致しているのかもしれない、と考察されています。
なお、男性や白人のエージェントは他者の意見を受け入れやすい傾向も見せています。
また、同じ属性を持つエージェント同士は互いに同調しやすいという「内集団びいき」の現象も観察されました。
以上のバイアスはGemini、Deepseekといった異なるLLMで、エージェントの数や議論の回数を変えても一貫して現れたと報告されています。
人物設定を与えたAI同士に対話させる際は、こうした現象が起きうることを把握しておくとよいかもしれません。
📄 参照論文
From Single to Societal: Analyzing Persona-Induced Bias in Multi-Agent Interactions
所属: Peking University