次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMの過信が人間のバイアスを増幅

安全性・アライメント(AIの安全性、アライメント、jailbreak、ハルシネーション対策)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

人間も過信する傾向はありますが、AIほど極端ではありません。
興味深いことに、LLMと人間は「完全に自信がある場合」の正確さは似ていますが、自信が下がると違いが現れるそうです。
つまり人間は自信が下がると言いすぎも減りますが、LLMはむしろ言いすぎるようになるとのことです。

LLMは自分の知識の限界を認識するのが苦手だということかもしれません。
実験によると、LLMは自分の回答の正しさを実際より20~60%も高く見積もっているそうです。

なお、LLMの回答を見た人間は過信が強くなってしまうことも明らかになっています。もともと自信がなかった人ほどこの効果が強く現れるとのこと。
要するに人々はLLMを活用することで(回答の正確さはたしかに向上するものの)、いわば気が大きくなってしまいます。

AIを活用するときに冷静に評価しながら使うことが重要であると改めて認識したほうがよさそうです。

📄 参照論文

Large Language Models are overconfident and amplify human bias

著者: Fengfei Sun, Ningke Li, Kailong Wang, Lorenz Goette

所属: National University of Singapore, Huazhong University of Science and Technology, Centre for Economic Policy Research

関連記事