最新の記事:科学は「研究」と「査読」両方が加速していく AIと…
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

生成回数を増やすだけでLLMの性能が大幅に向上するシンプルな法則 実用上のポイント

2024.09.19
深堀り解説

この記事では、LLMの性能を向上させる新しい方法を提案している研究を紹介します。

従来のモデルサイズの拡大やデータの増加とは異なり、今回研究者らは「推論時の計算量を増やす」ことで性能を高める方法を探っています。「反復サンプリング」という手法を使い、複数回の推論を行って最適な解答を選び出すアプローチを取っています。

背景

LLMの能力向上は、これまで主に学習時の計算リソースを増やすことで達成されてきました。モデルのサイズを大きくしたり、より大規模なデータセットで事前学習を行ったり、人間の嗜好を反映したラベルを用いて後学習を実施するなど、学習段階への投資が大きな成果を生んでいました。

しかし、推論時の計算リソースの活用については、これまであまり積極的な投資が行われていませんでした。多くの場合、ユーザーや開発者は1回のみの試行で問題解決を試みており、推論時の計算能力が十分に活用されていなかった可能性があります。

この状況に注目し、今回研究者たちは推論時の計算リソースを拡大する方法として「反復サンプリング」の可能性を探ることにしました。「反復サンプリング」は、深層学習の他の分野ですでに成功を収めている考え方です。たとえば、ゲームの分野では、推論時に多くの未来の状態を探索して最適な手を決定する手法が使われています。また、LLMと組み合わせたツリーベースの方法も、モデルの計画立案やさまざまなアプローチの探索能力を高めるのに効果的であることが示されています。

さらに、コーディングや数学的推論、パズル解決などの分野でも、反復サンプリングが効果的であることが先行研究で示されています。特にコーディングのタスクでは、最大で100万回のサンプリングまで性能が向上し続けることが報告されています。

こうした背景から、研究チームは反復サンプリングをさまざまなタスクやモデルに適用し、その効果を体系的に調べる必要性を感じました。中でもカバレッジ(任意のサンプルで問題を解決できる割合)とサンプル数の関係、異なるモデルやタスクでのスケーリングの一貫性、そして自動検証が難しいタスクでの課題など、広範な理解が重要だと考えました。

また、推論時のスケーリング法則が存在する可能性を探ることも目的の一つとなっています。学習のスケーリング法則が投資にヒントを与えたように、推論時のスケーリング法則が発見されれば次の戦略が考えやすくなります。

以下では、本研究の実験内容と結果を中心に詳しく紹介します。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能
  • プロンプト管理ツールの利用

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に
  • プロンプト管理ツールの無制限使用

記事検索

年/月/日
年/月/日

関連記事