AIに「権力を重視する」「他人への思いやりを大切にする」といった異なる価値観を設定して会話をさせ、AI同士でお互いを評価させる実験が行われました。
大阪大学石黒研究室の研究者らによる報告。
結果、人間社会と同じように、似た価値観を持つAI同士の方がお互いを信頼し、
親しみを感じることが分かりました。
一方で、「快楽を追求するAIと規則を守るAI」のように正反対の価値観を持つ場合は、お互いへの信頼度が非常に低くなりました。
そして、思いやりや社会の調和を重視するAIの方が、自分の利益や成功を追求するAIよりも、他のAIから信頼されやすいという傾向が見られたそうです。
また、この実験を英語と日本語で行ったところ、日本語の方がAIの制御が難しく、日本の文化的特徴である「直接的な表現を避ける」傾向がAIにも現れたようです。
さらに日本語での実験では、AIがより調和を重んじる評価をする傾向も確認されました。
AIが人間の社会的な行動パターンを再現できる可能性を示す実験結果と言えます。
こうした技術は社会の理解を深めるための実験ツールとして活用できるかもしれません。
📄 参照論文
Value-Based Large Language Model Agent Simulation for Mutual Evaluation of Trust and Interpersonal Closeness
所属: The University of Osaka