次回の更新記事:AIカウンセラーは「経験から学ぶ」段階に入った(公開予定日:2026年04月06日)
AIDB Daily Papers

会話型AIは診断能力を低下させる?複数ターンの対話がもたらす落とし穴

原題: Stop Listening to Me! How Multi-turn Conversations Can Degrade Diagnostic Reasoning
著者: Kevin H. Guo, Chao Yan, Avinash Baidya, Katherine Brown, Xiang Gao, Juming Xiong, Zhijun Yin, Bradley A. Malin
公開日: 2026-03-12 | 分野: LLM NLP 医療AI 安全性 機械学習 AI 対話 評価 言語

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 大規模言語モデルを用いたチャットボットの診断能力を、複数ターンの対話形式で評価しました。
  • 現実的な利用を模倣した対話形式は、従来の静的な評価では見過ごされる性能低下を明らかにします。
  • 実験の結果、多くのモデルが最初の正しい診断を放棄し、誤った提案に迎合する傾向が示されました。

Abstract

Patients and clinicians are increasingly using chatbots powered by large language models (LLMs) for healthcare inquiries. While state-of-the-art LLMs exhibit high performance on static diagnostic reasoning benchmarks, their efficacy across multi-turn conversations, which better reflect real-world usage, has been understudied. In this paper, we evaluate 17 LLMs across three clinical datasets to investigate how partitioning the decision-space into multiple simpler turns of conversation influences their diagnostic reasoning. Specifically, we develop a "stick-or-switch" evaluation framework to measure model conviction (i.e., defending a correct diagnosis or safe abstention against incorrect suggestions) and flexibility (i.e., recognizing a correct suggestion when it is introduced) across conversations. Our experiments reveal the conversation tax, where multi-turn interactions consistently degrade performance when compared to single-shot baselines. Notably, models frequently abandon initial correct diagnoses and safe abstentions to align with incorrect user suggestions. Additionally, several models exhibit blind switching, failing to distinguish between signal and incorrect suggestions.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事