Meta研究チームによると、小さな言語モデルには脳との対応がほとんど見られなかったが、モデルが大きくなるにつれて徐々に脳に近づいているとのことです。
人間が言葉を聞いて理解するとき、脳はまず音を認識し、次に単語を特定し、最終的に意味を理解すると考えられています。
LLMも似た順序で 処理することが明らかになったそう。
LLMは人間の脳を模倣するように設計されたわけではありませんが、言語を処理するという同じ課題に取り組むうちに似た計算の道筋にたどり着いたのだと推察されています。
ただし、文脈をほとんど与えないと脳との類似性は消え、十分な文脈を与えると明確に現れることも分かっています。
また、マニアックな話になりますが、この類似性はTransformerというアーキテクチャに固有のものではなく、まったく異なる設計思想のモデル(Mambaなど)でも観察されています。
📄 参照論文
Scaling and context steer LLMs along the same computational path as the human brain
所属: Meta AI, École normale supérieure(Université PSL), INSERM