小さなLLMを多数組み合わせることで、単一の巨大モデルに匹敵する可能性

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

大規模言語モデル(LLM)のパフォーマンスを向上させる極めてシンプルな方法を発見したと報告されています。その方法とは、複数のエージェントを生成し、それらの結果を投票によって集計するというものです。既存の複雑なLLM強化手法とは異なる考え方です。

実験では、タスクの難易度と本方法論の効果の大きさが相関関係にあることが示されました。そして、エージェント数のスケーリング則(増やせば増やすほど性能が向上する法則)の可能性について詳細に調べられています。


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

参照論文情報

  • タイトル:More Agents Is All You Need
  • 著者:Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu, Deheng Ye
  • 所属:Tencent Inc.

背景

LLMは、単一のモデルで複雑な問題に対応する能力には限界があるとされています。そこで研究者たちは複数のLLMを組み合わせる手法(アンサンブル手法)や、LLMエージェント同士が連携するフレームワークの開発に注力しています。例えば複数のLLMエージェントを用いた議論形式も提案されており、計算能力などの向上が示されています。

複数エージェントのフレームワークでは、エージェントの数を増やすことで性能が向上する傾向にあることも明らかになっています。とはいえ、その普遍性はまだ十分には検証されていません。そこで研究者らは、LLMエージェントのスケーリング特性に焦点を当て、この現象が一般に成り立つかどうかを調査することにしました。

研究者らは、「サンプリング&投票」というシンプルな手法を提案しています。タスクの質問文をLLMまたはLLMエージェントの連携フレームワークに繰り返し入力し、複数の出力を生成し、多数決によって最終的な結果を決定する手法です。既存の複雑な手法とは全く独立する方法かつ、既存の複雑な手法の性能をさらに向上させる可能性を秘めています。

また、教師あり学習を必要とせず、追加の訓練データも必要としません。

方法論

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP