人間が画像を見た時の脳の反応が、テキストだけで学習したAIと似ているということを発見したそうです。
たとえばLLMに「犬がボートに立っている」といった説明文を読ませた時の内部状態と、人間がその画像を見た時の脳活動パターンが、非常によく一致していました。
これは直感的には非常に不思議なことです。
さらにこの一致は比較的精密で、脳活動のデータだけを見て、その人がどんな画像を見ていたかを言葉で説明することまで可能とのことです。
この発見は脳科学と人工知能の両分野にとって意味のある発見かもしれません。
もしかすると私たちが何かを「見る」という行為は、最終的には言語的な理解に近い形で脳内で処理されているのかもしれない(そうした可能性を示唆している)と考察されています。
📄 参照論文
High-level visual representations in the human brain are aligned with large language models
所属: Freie Universität Berlin, University of Osnabrück, Bernstein Center for Computational Neuroscience