AIDB Daily Papers
LLMの長期対話における適応的コンテキスト圧縮技術の開発
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLMの長期対話における性能低下に対処するため、適応的なコンテキスト圧縮フレームワークを開発した。
- 重要度に基づくメモリ選択、一貫性フィルタリング、動的予算配分により、効率的な対話情報の保持を実現する。
- 実験結果から、提案手法が既存手法と比較して、会話の安定性と検索性能を向上させつつ、計算コストを削減することを示した。
Abstract
Large Language Models (LLMs) often experience performance degradation during long-running interactions due to increasing context length, memory saturation, and computational overhead. This paper presents an adaptive context compression framework that integrates importance-aware memory selection, coherence-sensitive filtering, and dynamic budget allocation to retain essential conversational information while controlling context growth. The approach is evaluated on LOCOMO, LOCCO, and LongBench benchmarks to assess answer quality, retrieval accuracy, coherence preservation, and efficiency. Experimental results demonstrate that the proposed method achieves consistent improvements in conversational stability and retrieval performance while reducing token usage and inference latency compared with existing memory and compression-based approaches. These findings indicate that adaptive context compression provides an effective balance between long-term memory preservation and computational efficiency in persistent LLM interactions
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: