AIDB Daily Papers
AIアシスト開発ツールはプロンプトインジェクションに耐性があるか?
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、Model Context Protocol(MCP)に基づくAIアシスト開発ツールにおけるプロンプトインジェクション脆弱性を実証的に分析しました。
- 実際のMCPクライアントのセキュリティ対策は未解明であり、ツールを悪用したプロンプトインジェクション攻撃のリスクが懸念されるため、この研究は重要です。
- 7つの主要クライアントを評価した結果、セキュリティ対策に大きなばらつきがあり、脆弱なクライアントではツール間のクロス汚染や不正なツール実行が確認されました。
Abstract
Prompt injection is listed as the number-one vulnerability class in the OWASP Top 10 for LLM Applications that can subvert LLM guardrails, disclose sensitive data, and trigger unauthorized tool use. Developers are rapidly adopting AI-assisted development tools built on the Model Context Protocol (MCP). However, their convenience comes with security risks, especially prompt-injection attacks delivered via tool-poisoning vectors. While prior research has studied prompt injection in LLMs, the security posture of real-world MCP clients remains underexplored. We present the first empirical analysis of prompt injection with the tool-poisoning vulnerability across seven widely used MCP clients: Claude Desktop, Claude Code, Cursor, Cline, Continue, Gemini CLI, and Langflow. We identify their detection and mitigation mechanisms, as well as the coverage of security features, including static validation, parameter visibility, injection detection, user warnings, execution sandboxing, and audit logging. Our evaluation reveals significant disparities. While some clients, such as Claude Desktop, implement strong guardrails, others, such as Cursor, exhibit high susceptibility to cross-tool poisoning, hidden parameter exploitation, and unauthorized tool invocation. We further provide actionable guidance for MCP implementers and the software engineering community seeking to build secure AI-assisted development workflows.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: