次回の更新記事:「AIっぽくて白ける」現象の正体(公開予定日:2026年05月01日)
AIDB Daily Papers

議論型AI意思決定:AIエージェントが私たちに代わってではなく、私たちと共に推論するために

原題: Argumentative Human-AI Decision-Making: Toward AI Agents That Reason With Us, Not For Us
著者: Stylianos Loukas Vasileiou, Antonio Rago, Francesca Toni, William Yeoh
公開日: 2026-03-16 | 分野: LLM 推論 AI エージェント 対話 意思決定 情報 テキスト コミュニケーション 議論

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 本研究では、計算論的議論とLLMを融合させ、人間とAIが協調して意思決定を行う新たなパラダイムを提案した。
  • 従来の計算論的議論の透明性とLLMのテキスト処理能力を組み合わせることで、より信頼性の高いAIの実現を目指す点が新しい。
  • 議論フレームワークのマイニング、合成、推論を組み合わせることで、AIが人間と対話的に意思決定できることを示した。

Abstract

Computational argumentation offers formal frameworks for transparent, verifiable reasoning but has traditionally been limited by its reliance on domain-specific information and extensive feature engineering. In contrast, LLMs excel at processing unstructured text, yet their opaque nature makes their reasoning difficult to evaluate and trust. We argue that the convergence of these fields will lay the foundation for a new paradigm: Argumentative Human-AI Decision-Making. We analyze how the synergy of argumentation framework mining, argumentation framework synthesis, and argumentative reasoning enables agents that do not just justify decisions, but engage in dialectical processes where decisions are contestable and revisable -- reasoning with humans rather than for them. This convergence of computational argumentation and LLMs is essential for human-aware, trustworthy AI in high-stakes domains.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事