LLMと人間の「共感力」を比較した実験の結果、LLMは、とくにテキストベースの課題では人間よりも相手の気持ちを理解するのが得意だということが分かりました。
最新のモデルは心理学を学んでいる大学生よりも高い点数を取りました。
文章を読んで相手の心理状態を推測したり、目元の写真から感情を読み取ったりすることが可能です。
しかし一方で、相手の感情に「共鳴」して「自分も同じように感じる」という能力については、人間に大きく劣りました。人間が44点取るテストでLLMは14点程度しか取れませんでした。
つまり、「心で感じる」タイプの共感は苦手だということです。膨大なデータから学習して論理的に感情を分析できる一方で、実際に感情を体験することはできないからだと考えられています。
感情労働の未来は、AIが客観的な感情分析を担当し、人間が温かみのある感情的なサポートを提供するという役割分担が有効かもしれません。
📄 参照論文
Heartificial Intelligence: Exploring Empathy in Language Models
所属: University of the Witwatersrand