AIが集まると人間のような「暗黙のルール」を勝手に作り出すとのこと。
研究チームは、LLMに「同じ文字を選ぶと得点、違う文字だと減点」というシンプルなゲームをさせました。
AIたちは、回数を重ねるうちに、誰かに指示されたわけでもないのに、全員が同じ文字を選ぶようになりました。
まるで「この文字を使おう」という暗黙の合意ができたかのようです。
さらに面白いのは、AIも集団になると特定の文字を好む傾向が強く出てきた点です。
人間でも集団になると特定の行動に偏ることがあるのと似ています。
また、一度定着したルールを覆すには、少数でも強く主張するAIの存在が重要でした。
ただし、どのくらいの人数が必要かはAIの種類によって大きく異なりました。
この研究から得られる示唆は、AIが人間社会に入り込んだとき、個別のAIが公平であっても、集団になると予想外の偏りやルールが生まれる可能性があるということです。
つまり、個々のAIだけでなく、集団としてのふるまいまで含めて考える必要があります。
この論文はScience系列の論文誌
Science Advancesに掲載されました。
📄 参照論文
Emergent social conventions and collective bias in LLM populations
所属: City St George’s, University of London, IT University of Copenhagen