次回の更新記事:AIエージェントで論文内容を再現するワークフロー(…(公開予定日:2026年04月30日)
AIDB Daily Papers

思考の連鎖は複雑なタスクをどう分解するか?:LLMの限界と最適解

原題: How does Chain of Thought decompose complex tasks?
著者: Amrut Nadgir, Vijay Balasubramanian, Pratik Chaudhari
公開日: 2026-04-10 | 分野: LLM NLP Transformer 推論 機械学習 最適化 タスク 深層学習 大規模

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 大規模言語モデル(LLM)の分類誤差はクラス数に対してべき乗則で増加することを示した。
  • タスクをより小さな分類問題に分割することで、予測誤差を大幅に削減できることを発見した。
  • 思考の連鎖(CoT)において、深すぎる思考はかえって性能を低下させる最適な深さが存在することを示した。

Abstract

Many language tasks can be modeled as classification problems where a large language model (LLM) is given a prompt and selects one among many possible answers. We show that the classification error in such problems scales as a power law in the number of classes. This has a dramatic consequence: the prediction error can be reduced substantially by splitting the overall task into a sequence of smaller classification problems, each with the same number of classes ("degree"). This tree-structured decomposition models chain-of-thought (CoT). It has been observed that CoT-based predictors perform better when they "think'", i.e., when they develop a deeper tree, thus decomposing the problem into a larger number of steps. We identify a critical threshold for the degree, below which thinking is detrimental, and above which there exists an optimal depth that minimizes the error. It is impossible to surpass this minimal error by increasing the depth of thinking.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事