LLMに回答させる際に「意図」も含めて出力するよう促すことで、数学・質問応答・長文要約などさまざまな能力が大幅に向上することが示唆されました。
さらに、思考プロセスの提示は、回答を見る人の解釈を助けることにもつながります。
人間が難しい問題を任されたときに、過程も提示することからこの試みが発想されたようです。
最先端の推論モデルは思考プロセスを提示するような仕組みになっているものの、回答と整合性がとれない場合もあると報告されています。
そんな中、出力に思考プロセスを明記させるのは有効なアプローチだと言えるかもしれません。

背景
LLMは問題が複雑になると、回答の精度や正確性が下がることがあります。
そこで、段階的な思考を行わせるChain-of-Thought(思考の連鎖)というプロンプト手法がよく使用されています。
しかし、最も効果を出すためにはユーザーが思考のステップをLLMに教示する必要があります。
そこで、Chain-of-Thoughtが自動的に発動するo1などの推論型モデルも好んで使われています。
推論型モデルにおいては思考のステップは自動探索されます。
ただし、そのプロセスがすべて明らかにされるわけではありません。
また、推論型モデルが示す考え方と実際の回答とがずれている場合もあり、ユーザーがその回答を十分に理解・納得できないことがあります。
このような問題は数学、文章読解、要約、常識的な判断など幅広いタスクに共通しています。
そこで「モデルがどのような意図で答えを導き出すのかを明らかにさせるように徹底すれば、回答の品質も、根拠の透明性も向上するだろう」と考えられました。
このような背景を受けて研究者らは、モデル自身が自らの「意図」を明確に文章で示して回答を導き出すことの効果を入念に検証しました。
以下で詳しく紹介します。
また記事の購読には、アカウント作成後の決済が必要です。
※ログイン/初回登録後、下記ボタンを押してください。
AIDBとは
プレミアム会員(記事の購読)について
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。