AIDB Daily Papers
LLMの推論戦略はモデルの多様性で決まる:手法ではなくモデル自身が重要
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLMの推論における計算資源の配分戦略は、解法探索の幅と深さのバランスで決まることを研究した。
- 最適な戦略はモデルの多様性プロファイルに依存し、探索戦略採用前に特性を把握する必要があると主張する。
- Qwen-3 4BとOlmo-3 7Bで検証し、多様性の低いモデルでは深掘りが有効だが、高いモデルでは効果が限定的だった。
Abstract
Compute scaling for LLM reasoning requires allocating budget between exploring solution approaches ($breadth$) and refining promising solutions ($depth$). Most methods implicitly trade off one for the other, yet why a given trade-off works remains unclear, and validation on a single model obscures the role of the model itself. We argue that $textbf{the optimal strategy depends on the model's diversity profile, the spread of probability mass across solution approaches, and that this must be characterized before any exploration strategy is adopted.}$ We formalize this through a theoretical framework decomposing reasoning uncertainty and derive conditions under which tree-style depth refinement outperforms parallel sampling. We validate it on Qwen-3 4B and Olmo-3 7B families, showing that lightweight signals suffice for depth-based refinement on low-diversity aligned models while yielding limited utility for high-diversity base models, which we hypothesize require stronger compensation for lower exploration coverage.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: