次回の更新記事:今週の注目AI論文リスト(論文公開日2026/4/26~5/2)(公開予定日:2026年05月02日)
AIDB Daily Papers

行動前の内省:自律AIエージェントのための神経認知ガバナンスモデル

原題: Think Before You Act -- A Neurocognitive Governance Model for Autonomous AI Agents
著者: Eranga Bandara, Ross Gore, Asanga Gunaratna, Sachini Rajapakse, Isurunima Kularathna, Ravi Mukkamala, Sachin Shetty, Xueping Liang, Amin Hass, Tharaka Hewa, Abdul Rahman, Christopher K. Rhea, Anita H. Clayton, Preston Samuel, Atmaram Yarlagadda
公開日: 2026-04-28 | 分野: LLM ロボティクス AI 説明性 ガバナンス cs.AI 信頼性 AIエージェント

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 自律AIエージェントの安全な運用のため、人間の自己統制プロセスを模倣した神経認知ガバナンスフレームワークを提案する。
  • 本研究は、AIエージェントが consequential な行動の前に、4層のガバナンスルールセットを参照する「行動前ガバナンス推論ループ(PAGRL)」を形式化する。
  • 実生産の小売サプライチェーンワークフローで95%のコンプライアンス精度を達成し、外部強制よりも一貫性、説明性、監査可能性の高いコンプライアンスを実現した。

Abstract

The rapid deployment of autonomous AI agents across enterprise, healthcare, and safety-critical environments has created a fundamental governance gap. Existing approaches, runtime guardrails, training-time alignment, and post-hoc auditing treat governance as an external constraint rather than an internalized behavioral principle, leaving agents vulnerable to unsafe and irreversible actions. We address this gap by drawing on how humans self-govern naturally: before acting, humans engage deliberate cognitive processes grounded in executive function, inhibitory control, and internalized organizational rules to evaluate whether an intended action is permissible, requires modification, or demands escalation. This paper proposes a neurocognitive governance framework that formally maps this human self-governance process to LLM-driven agent reasoning, establishing a structural parallel between the human brain and the large language model as the cognitive core of an agent. We formalize a Pre-Action Governance Reasoning Loop (PAGRL) in which agents consult a four-layer governance rule set: global, workflow-specific, agent-specific, and situational before every consequential action, mirroring how human organizations structure compliance hierarchies across enterprise, department, and role levels. Implemented on a production-grade retail supply chain workflow, the framework achieves 95% compliance accuracy and zero false escalations to human oversight, demonstrating that embedding governance into agent reasoning produces more consistent, explainable, and auditable compliance than external enforcement. This work offers a principled foundation for autonomous AI agents that govern themselves the way humans do: not because rules are imposed upon them, but because deliberation is embedded in how they think.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事