次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMの予測は直前100トークンで十分

2025.12.12
メモリ・長文脈(長文脈処理、メモリ機構、コンテキスト拡張)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

ブリティッシュコロンビア大学とGoogle DeepMindの研究者らは「LLMは文章を生成するとき、実は”すぐ前の数十トークン”で足りることがほとんど」という発見を報告しています。

最近のLLMはスペック的には何千文字も記憶できますが、実験によると、次の言葉を考える際には、多くが最後の32〜96 トークンで足りるとのことです。

興味深いことに、この傾向は英語だけでなく、8つの言語で共通して観察されました。また、一般的な文章だけでなく、生物医学論文の抄録、数学の文書、プログラミングコードでも同様のパターンが確認されています。

このことから、短いコンテキストで次の文を予測できるという特性は、自然言語そのものに備わった普遍的な性質だと予想されています。

論文タイトルは「Short-Context Dominance: How Much Local Context Natural Language Actually Needs?(短文が支配的。自然言語は実際にはどの程度のローカルコンテキストが必要?)」。

📄 参照論文

Short-Context Dominance: How Much Local Context Natural Language Actually Needs?

著者: Vala Vakilian, Zimeng Wang, Ankit Singh Rawat, Christos Thrampoulidis

所属: University of British Columbia, Google DeepMind

関連記事