十分に大きく賢いLLMは、単に正解を出すだけでなく、人間の脳と似たような方法で抽象的な推論を行っている可能性があることが示唆されています。
研究者たちは、記号のマークを使った抽象的なパズルを人間とLLMの両方に解かせました。
そしてLLMの「頭の中」を調べてみると、性能の良いモデルほど、人間の脳活動パターンと似たような情報処理をしていることが分かりました。
なお、パズルは「星・星・星・ギター・星・星・星・?」のような並びで、最後の「?」に入るアイコンを当てるというものです。
その結果、LLMの中間層と呼ばれる部分での情報の整理の仕方が、人間が問題を解いているときの前頭葉の脳波パターンと相関していたのです。
限られた実験内容であり、結果の解釈にも慎重さが求められますが、AIと人間の知能に共通する原理があることを意味する証拠の候補として注目されます。
📄 参照論文
Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning
所属: University of Amsterdam