次回の更新記事:AIと人間の協働は、どのような「型」がうまくいく?(公開予定日:2026年02月18日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMと脳活動の一致度は30億パラメータ付近で頭打ちとの報告

推論・思考(論理推論、Chain-of-Thought、数学的推論、問題解決)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

これまで「AIは大きければ大きいほど人間の脳に近づく」と考えられてきましたが、その常識に修正を迫る報告が上がっています。

研究チームがモデルの出力と人間が物語を聞いているときの脳活動(fMRI)を比べ、どのくらい一致するかを調べたところ、意外なことに、 パラメータ数30億ほどの比較的小さなモデルで「脳との一致度」はほぼ頭打ちになり、そこから4倍以上の140億まで大きくしてもほとんど差がなかったそうです。

(参考までに、最高LLMの一つと考えられているGLM-5の総パラメータ数は7440億)

さらに面白いのは、30億以上のモデルであれば、データ量を削って軽量化(圧縮)しても脳との一致度がほぼ保たれるという点です。
わざわざ巨大なモデルを動かさなくても、コンパクトなモデルで十分に脳の振る舞いを捉えられる可能性があります。

もうひとつ興味深い発見があります。圧縮によってAIの「タスクスコア」が下がっても、脳との一致度には影響しないケースが多かったそうです。
逆に、小さなモデルがテストではそこそこの成績を出しながら、脳活動の予測では大きく劣ることもありました。AIにおいて「テスト成績」と「人間の脳との似かた」は別物で、片方が良いからといってもう片方も良いとは限らないのでした。

なお注意点があります。ここでいう「脳との一致」とは、モデルの出力からfMRI信号をどれだけ正確に予測できるかという統計的な指標であって、AIが人間と同じやり方で言葉を理解しているという意味ではありません。あくまで、両者の情報の「まとめ方」に何らかの共通パターンがある、という段階の話です。

📄 参照論文

Linguistic properties and model scale in brain encoding: from small to compressed language models

著者: Subba Reddy Oota, Vijay Rowtula, Satya Sai Srinath Namburi, Khushbu Pahwa, Anant Khandelwal 他

所属: TU Berlin, IIIT-Hyderabad, GE HealthCare

関連記事