次回の更新記事:LLMがまだできないこと、苦手なこと 最新研究から読…(公開予定日:2026年02月07日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMに「信念・願望・意図」を実装 エージェントの頭の中を言語化する

2025.12.01
深堀り解説

本記事では、LLMに心の動きのようなものを定義し、思考プロセスを透明化するための手法を紹介します。

LLMは、時として論理的な矛盾を抱えたり、なぜその答えに至ったのかが不透明だったりすることがあります。そこで今回の手法は、LLMの「頭の中」を整理された知識(オントロジー)として記述することで、こうした課題を解決しようとしています。

背景

業務でLLMを使っていると、「答えはそれっぽいけれど、なぜそう判断したのか理由がわからない」「論理的な一貫性がなく、たまに嘘をつく」といった不安を感じることはありませんか。これは、今のLLMが抱える「ブラックボックス問題」と呼ばれる大きな課題です。

この問題を解決するために、今、世界中の研究者が注目しているのが「ニューロシンボリックAI」というアプローチです。少し専門的な言葉ですが、要するに、今のAIが得意とする「確率的な推論」と、昔ながらのコンピュータが得意とする「厳密な論理ルール」をいいとこ取りしようという試みです。確率でふわっと考えるだけでなく、ルールに従って論理的に考える仕組みを合体させれば、AIはもっと信頼できるパートナーになるはずです。

もしLLMが「今の私の信念はこうで、願望はこれだから、この回答を生成する意図を持ちました」と説明できれば、AIの思考プロセスは透明になります。

そこで今回着目されたのが、「BDI」という考え方です。これは「信念」「願望」「意図」の頭文字を取ったもので、人間やAIエージェントがどうやって合理的に行動するかをモデル化したものです。たとえば、「外は雨だという『信念』」と「濡れたくないという『願望』」があるから、「傘を持っていくという『意図』」が生まれる、といった具合に、行動の理由を分解して整理するフレームワークです。

下記では、このフレームワークを活用してLLMは自分の「頭の中」にある信念や意図を、あやふやな言葉ではなく、システムが理解できる構造化されたデータとして整理するための具体的な手法を紹介します。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能
  • プロンプト管理ツールの利用

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に
  • プロンプト管理ツールの無制限使用

記事検索

年/月/日
年/月/日

関連記事