AIDB Daily Papers
OpenClawにおけるエージェント特権分離:プロンプトインジェクションに対する構造的防御
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLM統合アプリケーションへの攻撃であるプロンプトインジェクションに対する防御策を提案しました。
- エージェント分離とJSONフォーマットを組み合わせた防御策は、攻撃成功率を大幅に低下させる新しい構造です。
- 実験の結果、提案手法はMicrosoft LLMail-Injectベンチマークにおいて、攻撃成功率0%を達成しました。
Abstract
Prompt injection remains one of the most practical attack vectors against LLM-integrated applications. We replicate the Microsoft LLMail-Inject benchmark (Greshake et al., 2024) against current generation models running inside OpenClaw, an open source multitool agent platform. Our proposed defense combines two mechanisms: agent isolation, implemented as a privilege separated two-agent pipeline with tool partitioning, and JSON formatting, which produces structured output that strips persuasive framing before the action agent processes it. We run four experiments on the same 649 attacks that succeeded against our single-agent baseline. The full pipeline achieves 0 percent attack success rate (ASR) on the evaluated benchmark. Agent isolation alone achieves 0.31 percent ASR, approximately 323 times lower than the baseline. JSON formatting alone achieves 14.18 percent ASR, about 7.1 times lower. Our ablation study confirms that agent isolation is the dominant mechanism. JSON formatting provides additional hardening but is not sufficient on its own. The defense is structural: the action agent never receives raw injection content regardless of model behavior on any individual input.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: