AIDB Daily Papers
思考の連鎖は複雑なタスクをどう分解するか?:LLMの限界と最適解
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 大規模言語モデル(LLM)の分類誤差はクラス数に対してべき乗則で増加することを示した。
- タスクをより小さな分類問題に分割することで、予測誤差を大幅に削減できることを発見した。
- 思考の連鎖(CoT)において、深すぎる思考はかえって性能を低下させる最適な深さが存在することを示した。
Abstract
Many language tasks can be modeled as classification problems where a large language model (LLM) is given a prompt and selects one among many possible answers. We show that the classification error in such problems scales as a power law in the number of classes. This has a dramatic consequence: the prediction error can be reduced substantially by splitting the overall task into a sequence of smaller classification problems, each with the same number of classes ("degree"). This tree-structured decomposition models chain-of-thought (CoT). It has been observed that CoT-based predictors perform better when they "think'", i.e., when they develop a deeper tree, thus decomposing the problem into a larger number of steps. We identify a critical threshold for the degree, below which thinking is detrimental, and above which there exists an optimal depth that minimizes the error. It is impossible to surpass this minimal error by increasing the depth of thinking.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: