AIDB Daily Papers
省略された前提を明示化する:推論における論理的理解の実現
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、省略された前提を含む議論(推論)を理解するための新しいパイプラインを提案した。
- このパイプラインは、LLMを活用して推論の前提を補完し、論理式に変換、SATソルバーで検証する。
- 2つのデータセットで評価した結果、提案手法は正しい前提を選択する上で有望な性能を示した。
Abstract
Real-world arguments in text and dialogues are normally enthymemes (i.e. some of their premises and/or claims are implicit). Natural language processing (NLP) methods for handling enthymemes can potentially identify enthymemes in text but they do not decode their underlying logic, whereas logic-based approaches for handling them assume a knowledgebase with sufficient formulae that can be used to decode them via abduction. There is therefore a lack of a systematic method for translating textual components of an enthymeme into a logical argument and generating the logical formulae required for their decoding, and thereby showing logical entailment. To address this, we propose a pipeline that integrates: (1) a large language model (LLM) to generate intermediate implicit premises based on the explicit premise and claim; (2) another LLM to translate the natural language into logical formulas; and (3) a neuro-symbolic reasoner based on a SAT solver to determine entailment. We evaluate our pipeline on two enthymeme datasets, demonstrating promising performance in selecting the correct implicit premise, as measured by precision, recall, F1-score, and accuracy.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: