研究者たちが2,180本の動画を使い、AIに感情の違いを710万回も繰り返し分析させたところ、AIは喜び、恐怖、憧れ、嫌悪といった人間的な感情カテゴリーを自発的に学習していったと報告されています。
その結果、人間が何らかの動画を見たときの感情的な脳活動を予測できるようになったそうです。
そして、これは人が言葉で伝えるよりも正確である可能性が示唆されています。
大規模な分析から自然に浮かび上がってくる情報で、脳本来の感情の幾何学を忠実に捉えることが期待できるかもしれないということです。
一方で、人間が自分で「複雑で豊かな感情体験」について単純に表現することには限界があり、先入観が阻害要因になっていると考察されています。
さらに研究者たちは、AIが学んだ感情を起点にして動画を編集することの有効性も実証。
例えば「恐怖」成分を増やす動画を生成させると焚き火が炎に変化し、「怒り」成分を増やすと平和なドキュメンタリーが暴動シーンに変わりました。
「視覚による感情体験」と「感情表現」の関係における知見を深めるような研究事例です。
📄 参照論文
Bridging the behavior-neural gap: A multimodal AI reveals the brain’s geometry of emotion more accurately than human self-reports
所属: Institute of Automation, Chinese Academy of Sciences, University of Chinese Academy of Sciences