AIDB Daily Papers
CapSeal:AIエージェント実行の安全性を高める能力封印型秘密仲介
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- AIエージェントがAPIキー等の秘密情報を直接利用するのではなく、仲介者を通じて限定的な操作を行うアーキテクチャを提案した。
- 従来の直接的な秘密情報へのアクセスは、プロンプトインジェクション等による情報漏洩リスクがあったため、本研究は新たなセキュリティモデルを提示する。
- 提案手法は、秘密情報の直接的な露出を防ぎ、操作を厳密に制御することで、AIエージェントの安全な実行を実現する。
Abstract
Modern AI agents routinely depend on secrets such as API keys and SSH credentials, yet the dominant deployment model still exposes those secrets directly to the agent process through environment variables, local files, or forwarding sockets. This design fails against prompt injection, tool misuse, and model-controlled exfiltration because the agent can both use and reveal the same bearer credential. We present CapSeal, a capability-sealed secret mediation architecture that replaces direct secret access with constrained invocations through a local trusted broker. CapSeal combines capability issuance, schema-constrained HTTP execution, broker-executed SSH actions, anti-replay session binding, policy evaluation, and tamper-evident audit trails. We describe a Rust prototype integrated with an MCP-facing adapter, formulate conditional security goals for non-disclosure, constrained use, replay resistance, and auditability, and define an evaluation plan spanning prompt injection, tool misuse, and SSH abuse. The resulting system reframes secret handling for agentic systems from handing the model a key to granting the model a narrowly scoped, non-exportable action capability.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: