アメリカでは、成人の約3分の1がすでにAIに健康の相談をしているとのこと。
しかし人々とAIの会話データを分析すると、ユーザーが似たような質問を延々と繰り返す傾向にあるそうです。
(医療現場であれば症状や背景を聞き出すような双方向の進展的なやり取りになります)
さらに、ユーザーが「○○という薬は効きますか」「××という治療法はどうでしょう」といった具合に、特定の治療法を前提とした誘導的な質問をする傾向があるようです。
こうしたやりとりは思い込みを強化するリスクにつながります。
一方でメンタルヘルスに関しては、ユーザーが自分の症状や悩みを詳しく説明する傾向が強いことがわかりました。
ただ、いずれにしても大半の会話は非常に短く、半数以上が1回のやり取りで終わりがちとのことです。
また、ユーザーが不満や混乱を表明するのは全体の2%程度にすぎません。
ということで、今はまだ検索エンジンのように受動的な情報提供ツールとして使われがちという状況です。
人々は便利さからAIを使い始めているものの、健康相談に関しては、その使い方は必ずしも安全で効果的とは言えないかもしれません。
📄 参照論文
“What’s Up, Doc?”: Analyzing How Users Seek Health Information in Large-Scale Conversational AI Datasets
所属: UNC Chapel Hill, Duke University, University of Washington