人間とLLMは心の理論(他者の気持ちを推測する力)の成り立ちがハッキリ異なると報告されています。
たとえば人間は「あの人は○○が好き/○○が見えてる」という基本的な理解から「あの人はこう考えている」と応用的な推測を進めます。
一方でLLMはこの順序がまるっきり逆であるとのこと。
LLMは「あの人はこう考えている」と応用的な推測は得意である一方、最先端モデルであっても「あの人は○○が好き/○○が見えてる」という基本的な理解のほうがスコアが伸び悩みます。
現状、人間にとっては簡単なはずの基本的理解でむしろLLMは苦戦しているです。
研究者らはこれを昔からロボット分野にある「モラベックのパラドックス」と呼ばれる現象の一種だと考えています。「推論よりも感覚や運動の方がよりたくさんの計算が必要になる」という考え方です。
身体感覚や視点の違いといった、言葉だけでは学びにくい基礎的な部分を発達させることがAIの今後の課題であると改めて浮き彫りになりました。
📄 参照論文
CogToM: A Comprehensive Theory of Mind Benchmark inspired by Human Cognition for Large Language Models
所属: BrainCog Lab, Institute of Automation, Chinese Academy of Sciences