本記事では、LLMを用いた複雑なマルチエージェントゲーム環境の研究を紹介します。研究者らは「Among Us」をベースにした環境で、LLMエージェントの推論能力や戦略的思考を評価しました。また、エージェントのパーソナリティ(性格)などがゲームにもたらす影響も検証されました。
AIスキル人材と企業をつなぐマッチングサービス「AIDB HR」を開始しました!現在、期間限定で、ギフト券が必ずもらえる新規登録キャンペーンも行っています。
参照論文情報
- タイトル:AMONGAGENTS: Evaluating Large Language Models in the Interactive Text-Based Social Deduction Game
- 著者:Yizhou Chi, Lingjun Mao, Zineng Tang
- 所属:UC Berkeley, Tongji University
背景
これまで、複数のLLMをエージェントとして実行する実験において、人間のような社会的行動のシミュレーションが可能であることが示されてきました。
こうしたLLMの能力をより複雑な状況で試すため、研究者たちは「人狼」など言葉を駆使するゲームを用いた実験を行っています。曖昧な表現や相手を欺く発言など、人間でも判断が難しい言語使用が求められるのがゲームの特徴です。
しかし、これまでの研究では、単純な会話やゲーム内の単純な動きを超えた部分は十分に探求されていませんでした。そこで今回研究者らは、「Among Us」というゲームを題材に、「不完全な情報」や「多様な行動選択肢」がある中でのLLMの能力を検証することにしました。
Among Usは、戦略の立案、他プレイヤーの欺き、協力してタスクをこなすなど、複雑な要素を含む(非常に有名な)ゲームです。研究チームは、このゲームを模したテキストベースの環境「AMONGAGENTS」を開発し、LLMがゲームのルールを理解し、勝利を目指してどのように行動するかを観察しました。また、エージェントに異なる性格を与えたり、行動を計画する機能の有無を変えたりすることで、それらが性能にどう影響するかも調べました。
以下で全貌を詳しく紹介します。
また記事の購読には、アカウント作成後の決済が必要です。
※ログイン/初回登録後、下記ボタンを押してください。
AIDBとは
プレミアム会員(記事の購読)について
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。