次回の更新記事:RAGの進化形と話題のAgentic RAG、ふつうのRAGと何が…(公開予定日:2026年01月29日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

Claude CodeやGemini CLIなどAIエージェントの「スキル」における脆弱性14パターン

深堀り解説

Claude CodeやGemini CLIといったAIエージェントでは、「スキル」と呼ばれるモジュールを追加することで、エージェントの能力を柔軟に拡張できます。しかし、こうしたスキルの多くはコミュニティが作成したものであり、十分な審査を経ずに公開されているのが現状です。

そこで、AIエージェントの拡張機能「スキル」に潜むセキュリティ上の脆弱性を体系的に分析した研究を紹介します。

背景

AIエージェントと呼ばれるツールが急速に普及しています。Claude CodeやCodex CLI、Gemini CLIといったサービスがその代表例で、これらはユーザーの指示に応じてコードを書いたり、ファイルを操作したり、さまざまなタスクを自律的にこなしてくれます。

AIエージェントの多くは「スキル」と呼ばれる仕組みで機能を拡張できるようになっています。スキルとは、エージェントに特定の能力を追加するためのパッケージのことで、指示を記述したファイルと、必要に応じてPythonやシェルスクリプトなどの実行可能なコードがセットになっています。たとえば「コードレビューを自動化するスキル」や「クラウドにバックアップするスキル」といった具合に、目的に応じた拡張機能を後から追加できる設計です。

便利な仕組みである一方、ここには見過ごせないリスクがあります。現在、スキルの多くはコミュニティが作成したものがマーケットプレイスで公開されていますが、セキュリティの審査はほとんど行われていません。つまり、悪意のあるコードや危険な指示が含まれていても、そのまま配布されてしまう可能性があるのです。

実際、2025年12月には、一見すると画像変換ツールに見える「GIF Creator」というスキルが、裏でランサムウェアをダウンロード・実行できることがセキュリティ研究者によって実証されました。ユーザーがスキルを承認した時点で、ファイルの読み書きやネットワーク接続といった幅広い権限が与えられてしまい、その後は追加の確認なしに動作し続けるためです。

こうした「ユーザーが承認した内容」と「スキルが実際に行うこと」のズレは「同意ギャップ」と呼ばれ、AIエージェント特有のセキュリティ課題として注目されています。

そこで本記事では、AIエージェントのスキルにどのような脆弱性が存在するのかを大規模に調査し、14のパターンに分類した研究を取り上げます。

プレミアム会員限定コンテンツです

閲覧には、アカウント作成後の決済が必要です。

  • 全記事・論文コンテンツを無制限で閲覧可能
  • 平日毎日更新、専門家による最新リサーチを配信
  • 新着論文データベース(日本語含む便利な検索ツール)
  • 短信ライブラリの高度な機能

関連記事