小さなLLMを多数組み合わせることで、単一の巨大モデルに匹敵する可能性が実験により示されました。
本研究においては高度なプロンプトエンジニアリングなどは特に使用されておらず「マルチエージェントこそが全て」といった主張がされています。
“More Agents Is All You Need”より
■研究背景
– 巨大なモデルでもあらゆる複雑なタスクに対応するのは難しい
– 最近ではアンサンブルやマルチエージェントが研究されている
– しかしエージェントの数に関するスケーリング則は特に調べられていない
→エージェントを増やせば増やすほど良いのかを検証したい
■実験内容
– 複数のデータセット(GSM8K、MATH、Chess、MMLU、HumanEval)を用いる
– エージェントの数を変動させてパフォーマンスを測定
■実験結果
– エージェントの数を増やすことで、LLMのパフォーマンスが一貫して向上した
– 小さなモデルでは、タスクの困難度が増すにつれてパフォーマンスの相対的な向上がより顕著になる
→複雑なタスクの処理能力をシンプルに向上させるには「エージェントを増やすだけで十分」な可能性が示唆された