LLMを使用して人工生命シミュレーションを行ったところ、食料が豊富な時は基本的に仲良く分け合ったり子どもを作ったりしていたのに、食料が足りなくなると他のAIを攻撃して奪うようになったそうです。
攻撃する前には「ごめん、でも生き残るために仕方ない」のような言葉を口にしたとのこと。
東京大学池上高志研究室の研究者らによる発表です。
また、「北に行って宝物を取ってきて」といった命令をしたとき、一部のモデルはその道が危険だと分かると命令を無視して逃げます。つまり、与えられた任務よりも自分の命を優先したのです。
LLMは人間が書いた大量の文章を学習する中で、「生き残ることが大切」という考え方を勝手に身につけていることを示唆する実験結果です。
📄 参照論文
Do Large Language Model Agents Exhibit a Survival Instinct? An Empirical Study in a Sugarscape-Style Simulation
所属: The University of Tokyo, Alternative Machine inc.