LLMプライバシーポリシーの進化史
本記事では、主要なLLMプロバイダーのプライバシーポリシーを縦断的に分析した結果を取り上げます。
ChatGPTをはじめとするLLMサービスは、日常生活に急速に広がっています。ユーザーとの対話や生成コンテンツが大量に記録される一方で、その扱いについては十分に見えていません。にもかかわらず、LLMに特有のデータ処理に注目した網羅的な分析は、これまでほとんど行われてきませんでした。
そこで今回、OpenAIやAnthropicなど11社のLLMプロバイダーを対象に、2021年から2025年にかけて公開された74のプライバシーポリシーと115件の関連文書が調査対象とされました。ソフトウェアとの違い、地域ごとの傾向、主要製品の登場や規制当局の動きとの関係など、多角的な視点から現状を明らかにしています。

背景
LLMサービスは、文章作成や検索、コード生成など幅広い場面で使われるようになり、日常に新たな利便性をもたらしています。
一方で、ユーザーが入力する指示文やアップロードしたファイル、やり取りの履歴など、膨大な個人データが記録されている現実があります。
最近では、音声や画像も扱えるマルチモーダル機能が登場し、収集されるデータの種類はさらに増えています。外部ツールと連携するエージェント機能も広がり、第三者サービスとのデータ共有も発生しています。
ここで課題となるのが、ふつうのスマートフォンアプリなどとの違いです。たとえば、モバイルアプリではカメラや位置情報を使う際に明確な許可が求められますが、LLMとの対話は自由形式で行われるため、どんな情報が収集・処理されているのかが見えにくいという特徴があります。
この不透明さが、機密情報の漏洩リスクにつながっています。実際、サムスン電子では社員がChatGPTに社内コードを入力した結果、情報漏洩が発生し、社内での利用制限に発展しました。
こうした状況に対して、プライバシー保護の制度も整いつつあります。欧州のGDPRやカリフォルニア州のCCPAは、透明性やユーザーの権利を定めており、LLMプロバイダーにも適用されます。
たとえばOpenAIは、イタリアの当局から透明性義務違反を指摘され、1500万ユーロの制裁金を受けました。2024年に施行されたEU AI法でも、学習データや動作の情報開示が義務づけられています。
こうした規制を受け、各社はプライバシーポリシーを通じてデータの取り扱いを説明しています。プライバシーポリシーとは、どのような個人情報を収集し、どう利用するかを示す文書です。
ただし、こうした文書には以前から課題があります。長すぎる、複雑すぎる、あいまいすぎるといった点が指摘され、多くのユーザーは読むのを諦めてしまう状態にあるとも言われています。
実際、LLMユーザー調査では、自身のデータがモデル学習に使われることを拒否した人はわずか7%にとどまり、多くのユーザーが誤った前提で利用している可能性が示されました。
こうした状況にもかかわらず、LLMプロバイダーのプライバシーポリシーについての包括的な分析は、これまでほとんど行われてきませんでした。モデル学習への利用や外部プラグインとの連携といったLLM特有の仕組みは、通常の分析手法では捉えきれない部分があったからです。
以下では、複雑化しつつあるLLM各種のプライバシーポリシーがどのように変化してきたのかを紐解き、今後の展開を予想することに役立てます。
また記事の購読には、アカウント作成後の決済が必要です。
※ログイン/初回登録後、下記ボタンを押してください。
AIDBとは
プレミアム会員(記事の購読)について
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


PAGE TOP