次回の更新記事:AIカウンセラーは「経験から学ぶ」段階に入った(公開予定日:2026年04月06日)
AIDB Daily Papers

考えすぎは禁物:再帰的言語モデルの再現と考察

原題: Think, But Don't Overthink: Reproducing Recursive Language Models
著者: Daren Wang
公開日: 2026-03-03 | 分野: LLM 効率化 ベンチマーク 推論 機械学習 エージェント

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 大規模言語モデル(LLM)のコンテキスト処理能力を拡張する再帰的言語モデル(RLM)の再現と拡張を試みた。
  • 再帰深度を深くすると、複雑な推論タスクでは精度が向上する一方、単純なタスクでは性能が低下するという逆説的な現象を発見した。
  • RLMの再帰深度が深すぎると、LLMが「考えすぎる」状態になり、実行時間とコストが大幅に増大することを示した。

Abstract

This project reproduces and extends the recently proposed ``Recursive Language Models'' (RLMs) framework by Zhang et al. (2026). This framework enables Large Language Models (LLMs) to process near-infinite contexts by offloading the prompt into an external REPL environment. While the original paper relies on a default recursion depth of 1 and suggests deeper recursion as a future direction, this study specifically investigates the impact of scaling the recursion depth. Using state-of-the-art open-source agentic models (DeepSeek v3.2 and Kimi K2), I evaluated pure LLM, RLM (depth=1), and RLM (depth=2) on the S-NIAH and OOLONG benchmarks. The findings reveal a compelling phenomenon: Deeper recursion causes models to ``overthink''. While depth-1 RLMs effectively boost accuracy on complex reasoning tasks, applying deeper recursion (depth=2) or using RLMs on simple retrieval tasks paradoxically degrades performance and exponentially inflates execution time (e.g., from 3.6s to 344.5s) and token costs. Code and data are available at: https://github.com/drbillwang/rlm-reproduction

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事