次回の更新記事:AIチューターが人間授業を超えた日と、成績を落とし…(公開予定日:2026年04月29日)
AIDB Daily Papers

ClawSafety: 「安全な」LLM、危険なエージェント

原題: ClawSafety: "Safe" LLMs, Unsafe Agents
著者: Bowen Wei, Yunbei Zhang, Jinhao Pan, Kai Mei, Xiao Wang, Jihun Hamm, Ziwei Zhu, Yingqiang Ge
公開日: 2026-04-01 | 分野: LLM 安全性 ベンチマーク セキュリティ AI ソフトウェア エージェント リスク 評価 プロンプト ソフトウェアエンジニアリング

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • OpenClawのような個人AIエージェントの脆弱性を評価するCLAWSAFETYベンチマークを導入しました。
  • 従来の評価では不十分な、高権限環境におけるプロンプトインジェクションの脅威を現実的なシナリオで検証します。
  • 実験の結果、攻撃成功率はモデルや注入経路によって大きく異なり、エージェントフレームワーク全体での安全評価が不可欠だと判明しました。

Abstract

Personal AI agents like OpenClaw run with elevated privileges on users' local machines, where a single successful prompt injection can leak credentials, redirect financial transactions, or destroy files. This threat goes well beyond conventional text-level jailbreaks, yet existing safety evaluations fall short: most test models in isolated chat settings, rely on synthetic environments, and do not account for how the agent framework itself shapes safety outcomes. We introduce CLAWSAFETY, a benchmark of 120 adversarial test scenarios organized along three dimensions (harm domain, attack vector, and harmful action type) and grounded in realistic, high-privilege professional workspaces spanning software engineering, finance, healthcare, law, and DevOps. Each test case embeds adversarial content in one of three channels the agent encounters during normal work: workspace skill files, emails from trusted senders, and web pages. We evaluate five frontier LLMs as agent backbones, running 2,520 sandboxed trials across all configurations. Attack success rates (ASR) range from 40% to 75% across models and vary sharply by injection vector, with skill instructions (highest trust) consistently more dangerous than email or web content. Action-trace analysis reveals that the strongest model maintains hard boundaries against credential forwarding and destructive actions, while weaker models permit both. Cross-scaffold experiments on three agent frameworks further demonstrate that safety is not determined by the backbone model alone but depends on the full deployment stack, calling for safety evaluation that treats model and framework as joint variables.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事