LLMに反証的な推論を行う高度な思考を促すプロンプト手法が考案されました。
「ある命題が矛盾することなどから特定の仮説が成り立つ」といったことが分かるようにするためのテンプレートです。
“Large Language Models as an Indirect Reasoner: Contrapositive and Contradiction for Automated Reasoning”
■背景、課題
1. LLMは直接的な推論(AということはB)には優れている
2. しかし、より複雑な間接的推論や反証的推論を行う能力に課題があり、かつ求められている
3. 命題の矛盾や逆命題を利用した論理的推論をLLMで効果的に行う方法が確立されていない
■方法論
以下のようなプロンプトテンプレートを使用します。
1. 「命題を満たす条件をリストアップしてください」
2. 「リストアップした条件を一つに統合してください」
3. 「一歩ずつ考えましょう。全ての可能性を考慮してください。少なくとも一つの可能性で、条件を統合したものと質問(検証対象)の”否定”との共通項が空でない場合、元の命題は偽です。そうでなければ、元の命題は真です。」
■本手法の実験と結果
1. GPT-3.5-turboとGemini-proを使用
2. 事実推論での全体的な正確性が27.33%、数学的証明で31.43%と大きく向上した
3. 直接的な推論と組み合わせると性能がさらに優れた