大規模言語モデル(LLM)はテキスト生成や推論能力の面で飛躍的な進歩を遂げています。LLMは理論的な問題解決において優れた能力を示しており、さまざまな領域で活用が進んでいます。
一方で、LLMの「人間の感情への共感や理解」に関してはまだ進歩の余地があります。そこで、ソウル国立大学の研究チームは、「CoE:Chain of Empathy(共感の連鎖)」プロンプト手法を開発しました。
CoE手法は、心理療法の理論に基づき、LLMに対してより深い共感力と感情理解を促すよう設計されています。特定のプロンプトテンプレートを使用することで、LLMがユーザーの感情を識別し、共感的かつ理解のある反応を示すようになるとされています。
本記事では、CoEプロンプト手法の研究背景、理論基盤、性能評価結果、および実行方法に焦点を当てて論文を紹介します。
なお、本手法を実装したGPTs(カスタマイズされたChatGPT)をAIDBで作成してみました。記事の最後にリンクを置いておくので、ぜひ試してみてくださいね。

参照論文情報
- タイトル:Chain of Empathy: Enhancing Empathetic Response of Large Language Models Based on Psychotherapy Models
- 著者:Yoon Kyung Lee, Inju Lee, Minjung Shin, Seoyeon Bae, Sowon Hahn
- 所属:Human Factors Psychology Lab, Seoul National University
- URL:https://doi.org/10.48550/arXiv.2311.04915
本記事の関連研究:GPT-4をセラピストとして実行し、「認知の歪み」を診断させるためのフレームワーク『Diagnosis of Thought (DoT)』と実行プロンプト
背景
大規模言語モデルと感情理解
LLMは、人間の表現に近いテキスト生成や様々な問題解決タスクでの推論能力を示しており、例えば法律や数学、医療などの分野で高いパフォーマンスを示しています。しかし、これらの成功の一方で、感情やその背後にある原因について推論し、ユーザーの入力に共感的な反応を示すことは、まだまだ未開拓の領域であり、さらなる探求が必要とされています。
共感的理解は、他者の心理状態に対する認知的な推論を必要とします。共感的な理解をロジカルに行う方法としては、心理療法のアプローチがあります。そのため、心理療法のアプローチをLLMに活用することで、モデルの共感的反応の精度を高めることが可能かもしれません。
そもそも、人間とAIのコミュニケーションにおいて感情を理解することの重要性が増してきており、より人間らしい対話を実現するための進歩が求められています。
感情的なコミュニケーションの挑戦
テキストベースのコミュニケーションでは、特に感情的なコンテキスト(文脈)を理解し反映することが重要です。しかし、現在のAIにとっては、個別化された反応を生み出すことは依然として大きな課題です。
さまざまな研究機関によって、人間らしい特性を取り入れて共感表現能力を高めるための取り組みが進んでいます。
この背景を踏まえ、ソウル国立大学の研究チームは、「Chain of Empathy」を開発し、LLMの感情理解能力を高めるための新たなアプローチを提案しています。LLMが人間の感情状態をより深く理解し、より共感的な対応をすることを目的とした研究です。
本記事の関連研究:「心の理論」においてGPT-3は人間の3歳、GPT-4は人間の7歳(基本の概念を理解しているレベル)に相当するとの研究報告

CoEプロンプトの参考になっている心理療法理論
「Chain of Empathy」が参考にしている心理療法の理論について掘り下げます。
また記事の購読には、アカウント作成後の決済が必要です。
※ログイン/初回登録後、下記ボタンを押してください。
AIDBとは
プレミアム会員(記事の購読)について
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。