次回の更新記事:「AIっぽくて白ける」現象の正体(公開予定日:2026年05月01日)
AIDB Daily Papers

LLMの長期対話における適応的コンテキスト圧縮技術の開発

原題: Developing Adaptive Context Compression Techniques for Large Language Models (LLMs) in Long-Running Interactions
著者: Payal Fofadiya, Sunil Tiwari
公開日: 2026-03-31 | 分野: LLM NLP Transformer 効率化 機械学習 情報検索 対話 最適化 言語 深層学習

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • LLMの長期対話における性能低下に対処するため、適応的なコンテキスト圧縮フレームワークを開発した。
  • 重要度に基づくメモリ選択、一貫性フィルタリング、動的予算配分により、効率的な対話情報の保持を実現する。
  • 実験結果から、提案手法が既存手法と比較して、会話の安定性と検索性能を向上させつつ、計算コストを削減することを示した。

Abstract

Large Language Models (LLMs) often experience performance degradation during long-running interactions due to increasing context length, memory saturation, and computational overhead. This paper presents an adaptive context compression framework that integrates importance-aware memory selection, coherence-sensitive filtering, and dynamic budget allocation to retain essential conversational information while controlling context growth. The approach is evaluated on LOCOMO, LOCCO, and LongBench benchmarks to assess answer quality, retrieval accuracy, coherence preservation, and efficiency. Experimental results demonstrate that the proposed method achieves consistent improvements in conversational stability and retrieval performance while reducing token usage and inference latency compared with existing memory and compression-based approaches. These findings indicate that adaptive context compression provides an effective balance between long-term memory preservation and computational efficiency in persistent LLM interactions

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事