AIDB Daily Papers
議論型AI意思決定:AIエージェントが私たちに代わってではなく、私たちと共に推論するために
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、計算論的議論とLLMを融合させ、人間とAIが協調して意思決定を行う新たなパラダイムを提案した。
- 従来の計算論的議論の透明性とLLMのテキスト処理能力を組み合わせることで、より信頼性の高いAIの実現を目指す点が新しい。
- 議論フレームワークのマイニング、合成、推論を組み合わせることで、AIが人間と対話的に意思決定できることを示した。
Abstract
Computational argumentation offers formal frameworks for transparent, verifiable reasoning but has traditionally been limited by its reliance on domain-specific information and extensive feature engineering. In contrast, LLMs excel at processing unstructured text, yet their opaque nature makes their reasoning difficult to evaluate and trust. We argue that the convergence of these fields will lay the foundation for a new paradigm: Argumentative Human-AI Decision-Making. We analyze how the synergy of argumentation framework mining, argumentation framework synthesis, and argumentative reasoning enables agents that do not just justify decisions, but engage in dialectical processes where decisions are contestable and revisable -- reasoning with humans rather than for them. This convergence of computational argumentation and LLMs is essential for human-aware, trustworthy AI in high-stakes domains.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: