次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMの表現が信念に与える影響を解明

2025.11.16
プロンプト(プロンプトエンジニアリング、few-shot、in-context learning)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

LLMの回答における表現・ニュアンスによって、受け取った人の感じ方は当然ながら変化します。今回研究者らは、どんなトーンで回答が生成されるとユーザーの意見が変わるのかを詳しく調べました。

その結果、LLMが「詳しくて」「適度に自信がある」表現の時に、ユーザーの考えが最も変わりやすい
ということが実験で示唆されました。

一方、やや意外なことに、LLMが「断定的で」「自信満々」な表現をすると、ユーザーは意見を変えにくいそうです(ただし確信度は変化)。

また、客観的な事実を確認する用途において人々はLLMの影響を受けやすく、一方でユーザー自身の主観的な意見についてはLLMと対話してもあまり変わらない傾向が観察されました。

何にせよ、言葉遣いの微妙な違いが、人々の意思決定に予想以上に大きな影響を与えるということが浮き彫りになりつつあります。
LLMが生成した情報に対して賛成するか反対するかというシンプルな変化ではなく、確信の度合いが変わるという複雑な現象が起きます。

ユーザーとしては、LLMの表現の変化によって自身の意見がどう変わりがちかを振り返ってみるのも良いかもしれません。

📄 参照論文

How AI Responses Shape User Beliefs: The Effects of Information Detail and Confidence on Belief Strength and Stance

著者: Zekun Wu, Mayank Jobanputra, Vera Demberg, Jessica Hullman, Anna Maria Feit

所属: Saarland University, Northwestern University

関連記事