次回の更新記事:AIカウンセラーは「経験から学ぶ」段階に入った(公開予定日:2026年04月06日)
AIDB Daily Papers

ActMem:LLMエージェントにおける記憶検索と推論のギャップを埋める

原題: ActMem: Bridging the Gap Between Memory Retrieval and Reasoning in LLM Agents
著者: Xiaohui Zhang, Zequn Sun, Chengyuan Yang, Yaqin Jin, Yazhong Zhang, Wei Hu
公開日: 2026-02-04 | 分野: LLM NLP 推論 機械学習 エージェント

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 大規模言語モデル(LLM)エージェントの長期的なインタラクションを支援する新しいアクション可能な記憶フレームワークActMemを提案した。
  • ActMemは、非構造化対話履歴を構造化された因果関係とセマンティックグラフに変換し、エージェントが潜在的な制約を推論し、過去の状態と現在の意図の間の潜在的な矛盾を解決する。
  • ActMemEvalデータセットを用いた実験で、ActMemが既存の最先端ベースラインを大幅に上回り、より一貫性のある信頼性の高いインテリジェントアシスタントへの道を開いた。

Abstract

Effective memory management is essential for large language model (LLM) agents handling long-term interactions. Current memory frameworks typically treat agents as passive "recorders" and retrieve information without understanding its deeper implications. They may fail in scenarios requiring conflict detection and complex decision-making. To bridge this critical gap, we propose a novel actionable memory framework called ActMem that integrates memory retrieval with active causal reasoning. ActMem transforms unstructured dialogue history into a structured causal and semantic graph. By leveraging counterfactual reasoning and commonsense completion, it enables agents to deduce implicit constraints and resolve potential conflicts between past states and current intentions. Furthermore, we introduce a comprehensive dataset ActMemEval to evaluate agent reasoning capabilities in logic-driven scenarios, moving beyond the fact-retrieval focus of existing memory benchmarks. Experiments demonstrate that ActMem significantly outperforms state-of-the-art baselines in handling complex, memory-dependent tasks, paving the way for more consistent and reliable intelligent assistants.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事