AIDB Daily Papers
LLMエージェントのための経験圧縮スペクトル:記憶、スキル、ルールの統合
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLMエージェントの長期・複数セッション展開における経験管理の課題に対し、記憶、スキル、ルールを圧縮レベルで統合するフレームワークを提案した。
- 既存研究ではコミュニティ間の連携が乏しく、各システムは固定の圧縮レベルに留まる「ミッシングダイアゴナル」という課題が存在する。
- 本研究は、圧縮レベルに応じた知識のライフサイクル管理や評価方法の重要性を示し、スケーラブルなエージェント学習システムの設計原則を提示した。
Abstract
As LLM agents scale to long-horizon, multi-session deployments, efficiently managing accumulated experience becomes a critical bottleneck. Agent memory systems and agent skill discovery both address this challenge -- extracting reusable knowledge from interaction traces -- yet a citation analysis of 1,136 references across 22 primary papers reveals a cross-community citation rate below 1%. We propose the emph{Experience Compression Spectrum}, a unifying framework that positions memory, skills, and rules as points along a single axis of increasing compression (5--20$times$ for episodic memory, 50--500$times$ for procedural skills, 1,000$times$+ for declarative rules), directly reducing context consumption, retrieval latency, and compute overhead. Mapping 20+ systems onto this spectrum reveals that every system operates at a fixed, predetermined compression level -- none supports adaptive cross-level compression, a gap we term the emph{missing diagonal}. We further show that specialization alone is insufficient -- both communities independently solve shared sub-problems without exchanging solutions -- that evaluation methods are tightly coupled to compression levels, that transferability increases with compression at the cost of specificity, and that knowledge lifecycle management remains largely neglected. We articulate open problems and design principles for scalable, full-spectrum agent learning systems.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: