Googleは、LLMがユーザーとの会話を長期的に覚えておく能力を改良する方法を開発したと報告しています。
現在のチャットシステムは一時的な会話はうまくできますが、「過去の会話内容を覚えておいて後で適切に思い出す」能力が限られています。例えば、ユーザーが「先週話したあの本について、もう少し教えて」と言っても、システムが何の本だったか覚えていないことがよくあります。
そこで研究者たちは「反省的記憶管理(RMM)」という新しいアプローチを考案しました。
会話をただ時間順に記録するのではなく、話題ごとにまとめて整理するといったことを可能にするようです。
また、モデルが実際に役立つ情報を引用したかどうかを確認し、将来同じような質問が来たときにより適切な情報を思い出せるよう学習する仕組みです。
「先週ペットについて話した」「今月初めに旅行の計画を立てていた」といった情報をより正確に思い出せるようになるとのこと。
平たく言えば、チャットシステムがより人間らしく、われわれとの長期的な関係を築けるよう、「記憶力」を改善する技術です。
📄 参照論文
In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents