次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

CoTプロンプト:推論ステップ数とLLM性能の関係

推論・思考(論理推論、Chain-of-Thought、数学的推論、問題解決)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

LLMの連鎖的な思考を促す『CoT』プロンプトにおいて、推論ステップ数と効果(影響)の関係を綿密に調べた結果が報告されています。

実験では、「ステップバイステップで考え、さらに、もっと多くのステップで考えてください」といったプロンプトで推論精度が顕著に向上したことが示されています。

“The Impact of Reasoning Step Length on Large Language Models”より

■研究者らが知りたかったこと
推論ステップ数を増減させると推論プロセスはどう変化するのか

■実験結果
– 推論ステップ数とLLMの推論能力は比例する傾向があった
– ステップ数の増減の影響はタスクの種類によって異なる
– 簡単なタスクでステップ数を増やす必要はない

※実験で使用されたモデル:
GPT-4/GPT-3.5/text-davinci-002

■推論ステップ数を増やしたいときの手法
– Think About The Word
– Read the Question Again
– Repeat State
– Self-Verification
– Make Equation

なお、“Let’s think step by step, you must think more steps.”(「ステップバイステップで考え、さらに、もっと多くのステップで考えてください」)といったプロンプトは、数学の問題を含む場合により効果的とのことです。

📄 参照論文

■参照情報

関連記事