AIDB Daily Papers
ContextCov:エージェント指示ファイルから実行可能な制約を導出し適用
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 大規模言語モデル(LLM)エージェントが自律的なソフトウェア開発タスクを実行する際の逸脱を防ぐContextCovを提案。
- 自然言語の指示を、コードパターン、ランタイムコマンド、アーキテクチャ制約のチェックとして実行可能な形式に変換する点が新しい。
- オープンソースリポジトリの評価で、46,000以上の実行可能なチェックを99.997%の構文的有効性で抽出することに成功。
Abstract
As Large Language Model (LLM) agents increasingly execute complex, autonomous software engineering tasks, developers rely on natural language Agent Instructions (e.g., AGENTS.md) to enforce project-specific coding conventions, tooling, and architectural boundaries. However, these instructions are passive text. Agents frequently deviate from them due to context limitations or conflicting legacy code, a phenomenon we term Context Drift. Because agents operate without real-time human supervision, these silent violations rapidly compound into technical debt. To bridge this gap, we introduce ContextCov, a framework that transforms passive Agent Instructions into active, executable guardrails. ContextCov extracts natural language constraints and synthesizes enforcement checks across three domains: static AST analysis for code patterns, runtime shell shims that intercept prohibited commands, and architectural validators for structural and semantic constraints. Evaluations on 723 open-source repositories demonstrate that ContextCov successfully extracts over 46,000 executable checks with 99.997% syntax validity, providing a necessary automated compliance layer for safe, agent-driven development. Source code and evaluation results are available at https://anonymous.4open.science/r/ContextCov-4510/.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: