次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

GPTは知ったかぶりか、Claudeは迷いすぎか?対話の「修復」が明かすLLMの不安定な多ターン挙動

原題: Talking to a Know-It-All GPT or a Second-Guesser Claude? How Repair reveals unreliable Multi-Turn Behavior in LLMs
著者: Clara Lachenmaier, Hannah Bultmann, Sina Zarrieß
公開日: 2026-04-21 | 分野: LLM 対話 cs.CL cs.AI 信頼性

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 本研究では、人間同士の会話で重要な「修復」という対話プロセスをLLMとの対話で調査した。
  • LLMは、ユーザーからの修復提案に対して、抵抗が強いものから容易に操作されるものまで、モデルごとに大きく異なる反応を示した。
  • 対話が複数ターンに及ぶと、LLMの挙動はより特徴的で予測困難になり、それぞれ固有の不安定さを持つことが明らかとなった。

Abstract

Repair, an important resource for resolving trouble in human-human conversation, remains underexplored in human-LLM interaction. In this study, we investigate how LLMs engage in the interactive process of repair in multi-turn dialogues around solvable and unsolvable math questions. We examine whether models initiate repair themselves and how they respond to user-initiated repair. Our results show strong differences across models: reactions range from being almost completely resistant to (appropriate) repair attempts to being highly susceptible and easily manipulated. We further demonstrate that once conversations extend beyond a single turn, model behavior becomes more distinctive and less predictable across systems. Overall, our findings indicate that each tested LLM exhibits its own characteristic form of unreliability in the context of repair.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事