AIDB Daily Papers
ClawLess:AIエージェントのための爪(脆弱性)のないセキュリティモデル
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLM搭載の自律型AIエージェントは複雑なタスクを実行できる一方、情報検索とコード実行の自律性がセキュリティリスクを高める。
- 既存手法はトレーニングやプロンプトでエージェントの行動を規制するが、ClawLessは形式検証されたポリシーを適用し、根本的なセキュリティ保証を提供する。
- ClawLessは、システムエンティティ、信頼範囲、権限に対する詳細なセキュリティモデルを形式化し、BPFベースのsyscall傍受でセキュリティ規則を強制する。
Abstract
Autonomous AI agents powered by Large Language Models can reason, plan, and execute complex tasks, but their ability to autonomously retrieve information and run code introduces significant security risks. Existing approaches attempt to regulate agent behavior through training or prompting, which does not offer fundamental security guarantees. We present ClawLess, a security framework that enforces formally verified policies on AI agents under a worst-case threat model where the agent itself may be adversarial. ClawLess formalizes a fine-grained security model over system entities, trust scopes, and permissions to express dynamic policies that adapt to agents' runtime behavior. These policies are translated into concrete security rules and enforced through a user-space kernel augmented with BPF-based syscall interception. This approach bridges the formal security model with practical enforcement, ensuring security regardless of the agent's internal design.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: