次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMは高度な心の推測が得意で基本的な理解が苦手、人間と逆

推論・思考(論理推論、Chain-of-Thought、数学的推論、問題解決)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

人間とLLMは心の理論(他者の気持ちを推測する力)の成り立ちがハッキリ異なると報告されています。

たとえば人間は「あの人は○○が好き/○○が見えてる」という基本的な理解から「あの人はこう考えている」と応用的な推測を進めます。
一方でLLMはこの順序がまるっきり逆であるとのこと。

LLMは「あの人はこう考えている」と応用的な推測は得意である一方、最先端モデルであっても「あの人は○○が好き/○○が見えてる」という基本的な理解のほうがスコアが伸び悩みます。
現状、人間にとっては簡単なはずの基本的理解でむしろLLMは苦戦しているです。

研究者らはこれを昔からロボット分野にある「モラベックのパラドックス」と呼ばれる現象の一種だと考えています。「推論よりも感覚や運動の方がよりたくさんの計算が必要になる」という考え方です。
身体感覚や視点の違いといった、言葉だけでは学びにくい基礎的な部分を発達させることがAIの今後の課題であると改めて浮き彫りになりました。

📄 参照論文

CogToM: A Comprehensive Theory of Mind Benchmark inspired by Human Cognition for Large Language Models

著者: Haibo Tong, Zeyang Yue, Feifei Zhao, Erliang Lin, Lu Jia 他

所属: BrainCog Lab, Institute of Automation, Chinese Academy of Sciences

関連記事