最新の記事:科学は「研究」と「査読」両方が加速していく AIと…
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

GPTが「心の理論」をもつかどうかはプロンプト次第

2023.05.01
深堀り解説

この記事では、OpenAIの大規模言語モデル(Large Language Models: LLM)が、人間の心の理論(Theory of Mind: ToM)を理解し、推論できるかどうかを評価する研究について紹介します。心の理論とは、他者の信念や意図、感情などの精神的状態を理解する能力です。研究者たちは、適切なプロンプトがLLMの心の理論の推論能力を大幅に向上させることを示しました。

目次

参照論文情報

  • タイトル:Boosting Theory-of-Mind Performance in Large Language Models via Prompting
  • 著者:Shima Rahimi Moghaddam, Christopher J. Honey(Johns Hopkins University)
  • URL:https://doi.org/10.48550/arXiv.2304.11490

言語モデルの心の理論推論能力を探る

大規模言語モデルと心の理論

近年、AIの分野で大きな話題を集めているのが、大規模言語モデル(LLM)です。特に、GPTシリーズはその高い文章生成能力と推論能力で広く注目を集めています。しかし、これらのモデルが「心の理論」(ToM: Theory of Mind)と呼ばれる、他者の心や意図を理解する能力を持っているのかどうかは、未だ明確には分かっていません。

心の理論は、他者とのコミュニケーションや協力行動において、人間にとって重要な役割を果たしています。もしAIがこの能力を持つことができれば、より効果的な人間とのインタラクションが期待できます。そこで、Johns Hopkins Universityの研究者らは、GPTシリーズの心の理論推論能力を調査し、適切なプロンプトによってその能力が向上するかどうかを検証しています。

研究の目的と社会への期待

研究者らの目的は、大規模言語モデルが心の理論推論能力を持っているかどうかを明らかにすることに加えて、適切なプロンプトがその能力を向上させる可能性を探ることです。また、プロンプトによるパフォーマンス向上が心の理論推論だけに限定されているのか、それとも一般的な推論タスクにも適用できるのかを明らかにすることも目指しています。

この研究結果が、適切なプロンプトが言語モデルのパフォーマンスに与える影響について新たな知見を提供し、今後のAI研究に寄与することが期待されます。

仮想的な対話を通じた心の理論の評価

独自の評価方法と仮想的対話シナリオ

本研究で採用された評価方法は、独自に開発された仮想的な対話シナリオを用いて、GPTシリーズの心の理論推論能力を検証するものです。この評価方法では、実際の人間の対話者に代わって、言語モデルが他者の心や意図を読み取ることができるかどうかを試みます。

具体的には、

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能
  • プロンプト管理ツールの利用

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に
  • プロンプト管理ツールの無制限使用

記事検索

年/月/日
年/月/日

関連記事