LLMが内省できるようにトレーニングを行うことで「自己」について話せるようにできる可能性とアプローチが提案されています。
ニューヨーク大学の研究者らによる発表です。
AIが自分自身について一貫性を持って語れるようになると、学術的に大きな意味を持つだけでなく、
システム設計やカスタマーサポートにも役立つかもしれません。
@ Ethan Perez et al., “Towards Evaluating AI Systems for Moral Status Using Self-Reports”
論文によると、近年「AIは意識を持つのか」「AIに対してどのような道徳観念を持つべきか」といった議論が増えてきました。
研究者らは、LLMなどのAIシステムが自分の内面について語れるように訓練することで「自己」を持たせるフレームワークを検証しています。
■提案されているアプローチのポイント
① 自己に関する質問に正確に答えるように訓練する
② 内省する能力を開発する
③ 道徳的地位を評価する
■訓練方法のポイント
① 真実性に基づいてトレーニングする
② モデルが人間の答えを予測することを学ぶ
③ 答えの予測をもとに自己報告を行う
④ 「外部から得る情報」と「内省から得る情報」を分ける
論文によると、このような「内省の能力を持たせる」アプローチの提案はあまり例がなく、LLMなどのモデルに自己を持たせるための一つの重要なアイデアになる可能性があります。
なお、学習過程でバイアスが生じると「自己」によくない影響を与える可能性があるため、注意する必要があるとのことです。