次回の更新記事:AIと人間の協働は、どのような「型」がうまくいく?(公開予定日:2026年02月18日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMは高度な心の推測が得意で基本的な理解が苦手、人間と逆

2026.02.01
ニュース

人間とLLMは心の理論(他者の気持ちを推測する力)の成り立ちがハッキリ異なると報告されています。

たとえば人間は「あの人は○○が好き/○○が見えてる」という基本的な理解から「あの人はこう考えている」と応用的な推測を進めます。
一方でLLMはこの順序がまるっきり逆であるとのこと。

LLMは「あの人はこう考えている」と応用的な推測は得意である一方、最先端モデルであっても「あの人は○○が好き/○○が見えてる」という基本的な理解のほうがスコアが伸び悩みます。
現状、人間にとっては簡単なはずの基本的理解でむしろLLMは苦戦しているです。

研究者らはこれを昔からロボット分野にある「モラベックのパラドックス」と呼ばれる現象の一種だと考えています。「推論よりも感覚や運動の方がよりたくさんの計算が必要になる」という考え方です。
身体感覚や視点の違いといった、言葉だけでは学びにくい基礎的な部分を発達させることがAIの今後の課題であると改めて浮き彫りになりました。

📄 参照論文

CogToM: A Comprehensive Theory of Mind Benchmark inspired by Human Cognition for Large Language Models

著者: Haibo Tong, Zeyang Yue, Feifei Zhao, Erliang Lin, Lu Jia 他

所属: BrainCog Lab, Institute of Automation, Chinese Academy of Sciences

📎 論文を読む


この記事は短信を元に作成されました。

記事検索

年/月/日
年/月/日

関連記事