この記事では、OpenAIの大規模言語モデル(Large Language Models: LLM)が、人間の心の理論(Theory of Mind: ToM)を理解し、推論できるかどうかを評価する研究について紹介します。心の理論とは、他者の信念や意図、感情などの精神的状態を理解する能力です。研究者たちは、適切なプロンプトがLLMの心の理論の推論能力を大幅に向上させることを示しました。
参照論文情報
- タイトル:Boosting Theory-of-Mind Performance in Large Language Models via Prompting
- 著者:Shima Rahimi Moghaddam, Christopher J. Honey(Johns Hopkins University)
- URL:https://doi.org/10.48550/arXiv.2304.11490
言語モデルの心の理論推論能力を探る
大規模言語モデルと心の理論
近年、AIの分野で大きな話題を集めているのが、大規模言語モデル(LLM)です。特に、GPTシリーズはその高い文章生成能力と推論能力で広く注目を集めています。しかし、これらのモデルが「心の理論」(ToM: Theory of Mind)と呼ばれる、他者の心や意図を理解する能力を持っているのかどうかは、未だ明確には分かっていません。
心の理論は、他者とのコミュニケーションや協力行動において、人間にとって重要な役割を果たしています。もしAIがこの能力を持つことができれば、より効果的な人間とのインタラクションが期待できます。そこで、Johns Hopkins Universityの研究者らは、GPTシリーズの心の理論推論能力を調査し、適切なプロンプトによってその能力が向上するかどうかを検証しています。
研究の目的と社会への期待
研究者らの目的は、大規模言語モデルが心の理論推論能力を持っているかどうかを明らかにすることに加えて、適切なプロンプトがその能力を向上させる可能性を探ることです。また、プロンプトによるパフォーマンス向上が心の理論推論だけに限定されているのか、それとも一般的な推論タスクにも適用できるのかを明らかにすることも目指しています。
この研究結果が、適切なプロンプトが言語モデルのパフォーマンスに与える影響について新たな知見を提供し、今後のAI研究に寄与することが期待されます。
仮想的な対話を通じた心の理論の評価
独自の評価方法と仮想的対話シナリオ
本研究で採用された評価方法は、独自に開発された仮想的な対話シナリオを用いて、GPTシリーズの心の理論推論能力を検証するものです。この評価方法では、実際の人間の対話者に代わって、言語モデルが他者の心や意図を読み取ることができるかどうかを試みます。
具体的には、
また記事の購読には、アカウント作成後の決済が必要です。
※ログイン/初回登録後、下記ボタンを押してください。
AIDBとは
プレミアム会員(記事の購読)について
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。