
CLAUDE.mdや.cursorrulesといったルールファイルは、いまやAIコーディングエージェントを使う現場で当たり前の存在になっています。プロジェクトごとに「テストを先に走らせろ」「無関係なファイルは触るな」といった指示を書き溜め、毎回エージェントに読ませる運用です。
ところが、こうしたルールが本当にエージェントの性能を上げているのか、上げているとして何が効いているのかを大規模に検証した研究はこれまでありませんでした。今回紹介するのは、GitHubから集めた679ファイル・25,532個のルールを分析し、5,000回以上のエージェント実行で効果を測った事例です。