AIDB Daily Papers
過去の会話は消えない:LLMを幾何学的に閉じ込める会話履歴の罠
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLMの会話履歴が将来の性能に与える影響を、History-Echoesというフレームワークで調査しました。
- 会話履歴がLLMの応答にバイアスを与えることを、確率論的・幾何学的な側面から分析する点が新しいです。
- モデルの行動は潜在空間のギャップに閉じ込められる幾何学的な罠として現れることを示しました。
Abstract
How does the conversational past of large language models (LLMs) influence their future performance? Recent work suggests that LLMs are affected by their conversational history in unexpected ways. For instance, hallucinations in prior interactions may influence subsequent model responses. In this work, we introduce History-Echoes, a framework that investigates how conversational history biases subsequent generations. The framework explores this bias from two perspectives: probabilistically, we model conversations as Markov chains to quantify state consistency; geometrically, we measure the consistency of consecutive hidden representations. Across three model families and six datasets spanning diverse phenomena, our analysis reveals a strong correlation between the two perspectives. By bridging these perspectives, we demonstrate that behavioral persistence manifests as a geometric trap, where gaps in the latent space confine the model's trajectory. Code available at https://github.com/technion-cs-nlp/OldHabitsDieHard.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: