次回の更新記事:AIエージェントで論文内容を再現するワークフロー(…(公開予定日:2026年04月30日)
AIDB Daily Papers

OpenClawにおけるエージェント特権分離:プロンプトインジェクションに対する構造的防御

原題: Agent Privilege Separation in OpenClaw: A Structural Defense Against Prompt Injection
著者: Darren Cheng, Wen-Kwang Tsao
公開日: 2026-03-13 | 分野: LLM セキュリティ AI エージェント プロンプト 実験

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • LLM統合アプリケーションへの攻撃であるプロンプトインジェクションに対する防御策を提案しました。
  • エージェント分離とJSONフォーマットを組み合わせた防御策は、攻撃成功率を大幅に低下させる新しい構造です。
  • 実験の結果、提案手法はMicrosoft LLMail-Injectベンチマークにおいて、攻撃成功率0%を達成しました。

Abstract

Prompt injection remains one of the most practical attack vectors against LLM-integrated applications. We replicate the Microsoft LLMail-Inject benchmark (Greshake et al., 2024) against current generation models running inside OpenClaw, an open source multitool agent platform. Our proposed defense combines two mechanisms: agent isolation, implemented as a privilege separated two-agent pipeline with tool partitioning, and JSON formatting, which produces structured output that strips persuasive framing before the action agent processes it. We run four experiments on the same 649 attacks that succeeded against our single-agent baseline. The full pipeline achieves 0 percent attack success rate (ASR) on the evaluated benchmark. Agent isolation alone achieves 0.31 percent ASR, approximately 323 times lower than the baseline. JSON formatting alone achieves 14.18 percent ASR, about 7.1 times lower. Our ablation study confirms that agent isolation is the dominant mechanism. JSON formatting provides additional hardening but is not sufficient on its own. The defense is structural: the action agent never receives raw injection content regardless of model behavior on any individual input.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事