次回の更新記事:AIチューターが人間授業を超えた日と、成績を落とし…(公開予定日:2026年04月29日)
AIDB Daily Papers

ClawLess:AIエージェントのための爪(脆弱性)のないセキュリティモデル

原題: ClawLess: A Security Model of AI Agents
著者: Hongyi Lu, Nian Liu, Shuai Wang, Fengwei Zhang
公開日: 2026-04-07 | 分野: LLM 安全性 セキュリティ AI エージェント リスク システム 脆弱性 人工知能 脅威 大規模言語モデル

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • LLM搭載の自律型AIエージェントは複雑なタスクを実行できる一方、情報検索とコード実行の自律性がセキュリティリスクを高める。
  • 既存手法はトレーニングやプロンプトでエージェントの行動を規制するが、ClawLessは形式検証されたポリシーを適用し、根本的なセキュリティ保証を提供する。
  • ClawLessは、システムエンティティ、信頼範囲、権限に対する詳細なセキュリティモデルを形式化し、BPFベースのsyscall傍受でセキュリティ規則を強制する。

Abstract

Autonomous AI agents powered by Large Language Models can reason, plan, and execute complex tasks, but their ability to autonomously retrieve information and run code introduces significant security risks. Existing approaches attempt to regulate agent behavior through training or prompting, which does not offer fundamental security guarantees. We present ClawLess, a security framework that enforces formally verified policies on AI agents under a worst-case threat model where the agent itself may be adversarial. ClawLess formalizes a fine-grained security model over system entities, trust scopes, and permissions to express dynamic policies that adapt to agents' runtime behavior. These policies are translated into concrete security rules and enforced through a user-space kernel augmented with BPF-based syscall interception. This approach bridges the formal security model with practical enforcement, ensuring security regardless of the agent's internal design.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事