AIが人類の記憶係になりつつあります。そこで、考えなければいけないリスクがあります。
何が起きるかというと、デジタル上で目立つ人や国の情報ばかりがモデルに記憶され、そうでない人々の貢献は徐々に「なかったこと」にされていくかもしれないそうです。
LLMは統計的に多数派の情報を優先する性質があり、例えばマイノリティーの人々や発展途上国の研究、英語以外で書かれた知識は、意図せず排除されてしまう恐れがあるためです。
理想的には人類の歴史は全体的に保存するべきかもしれませんが、現状のAIシステムはそうしたメカニズムではなさそうです。
なお、「忘れられる権利」も存在し、個人は自分の情報を削除するよう求めることができます。
このように誰が記憶され誰が忘れられるかは、技術と公平性が複雑に絡み合う問題に発展しつつあります。
まずは、日頃利用しているLLMの中にそのような偏りが存在することを認識することが肝要です。
📄 参照論文
The Right to Be Remembered: Preserving Maximally Truthful Digital Memory in the Age of AI
所属: Insilico Medicine, Duke University, Duke Kunshan University