次回の更新記事:ハルシネーションは「AIのせい」だけではなく「クエ…(公開予定日:2026年03月05日)
AIDBは、AI活用のノウハウ獲得や技術動向の調査のために、個人やチームが論文を探す・読む・活かす作業をサポートするプラットフォームです。なお、記事や投稿は人の手で書いています。

Copilotサービスを使う上で気を付けたいプロンプトインジェクションによる機密情報漏洩リスク

深堀り解説

本記事では、Copilotを使う際に気をつけたいポイントとして、プロンプトインジェクションによる機密情報の漏洩リスクを検証した事例を紹介します。

プロンプトインジェクションとは、外部のメールや文書に紛れた“指示”が、LLMに拾われてしまうことで、意図しない動作を引き起こす現象です。

背景

LLMを日常的に業務の文書作成やデータの整理に加え、外部ツールとの連携まで視野に入れて使っている方も多いのではないでしょうか。

たとえば代表的なサービスであるMicrosoft 365は、すでにLLMが業務の中に組み込まれ実運用されています。導入企業は1万社を超えており、LLMアシストでメールや社内フォルダを扱うことで、日々の業務を効率化できている実感を持つ人々は既に沢山います。

こうした広がりの一方で、思わぬセキュリティの課題も見えてきました。なかでも指示の乗っ取りがリスクとして注目されており、業界の脅威リストでも最上位に挙げられています。

指示の乗っ取りは、専門用語では「プロンプトインジェクション」と呼ばれるものです。ユーザーが気づかないうちに、他人の指示が自分のLLMに入力されてしまい、その結果予期せぬ動作が引き起こされます。この用語が登場した当初は、「こうしたリスクも存在可能」という認識のみにとどまっていましたが、最近になって問題が現実的になってきました。

LLMを日々使う人や導入を検討している人にとって、リスクは他人事ではありません。本記事は、事例をもとにLLMシステムの脆弱性を分析し、防御対策も考察していきます。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に

💬 プレミアム会員ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

記事検索

年/月/日
年/月/日

関連記事