AIエージェントの安全対策というと、「危険な行動を未然に防ぐ」ことに注目が集まりがちです。しかし、どれだけ予防策を講じても、自律的に動くエージェントがトラブルを起こすリスクをゼロにはできません。
もしインシデントが起きてしまったら、その被害をどう食い止め、どう復旧し、同じ失敗をどう繰り返さないようにするか。こうした「事後対応」の仕組みは、従来のセキュリティ運用(SOC)では当たり前に整備されてきたものの、AIエージェントの世界ではほとんど手つかずの領域でした。

本記事ではセキュリティ分野で確立されたインシデント対応のライフサイクルを、AIエージェントの実行ループに組み込む新たなフレームワークを紹介します。コードエージェント、ロボット制御エージェント、ブラウザ操作エージェントの3種類で検証した結果はどうだったのか。具体的な仕組みと成果を詳しく見ていきます。