AIモデルが学習中に読んだ「AIについての話」が、そのモデル自身の振る舞いに影響を与えることが分かったそうです。
悪いAIの話を読むと悪い行いをするようになり、良いAIの話を読むと良い行いをするようになる。
なお、悪い話を取り除くよりも、良い話を加える方がはるかに効果的だったとのこと。
世の中にはAIが人間を裏切ったり危険な行動をとったりする話があります。実験において、こうした「悪いAI」の話をたくさん読んで育ったAIモデルは、実際に自分も悪い選択をしやすくなったといいます。
逆に、AIが正しい選択をする話、たとえば誘惑に負けずに人間のために行動する話を意図的に学習データに加えると、モデルは劇的に良い振る舞いをするようになりました。
「とは言っても学習データよりアライメント次第だろう」と思うかもしれませんが、こうした大規模学習の段階でモデルの振る舞いはある程度決まってしまい、後から完全に書き換えるのは難しいことが示唆されています。
ただし本実験は69億パラメータという比較的小さなモデルで行われている点は注意。
なお、少し想像を広げると、私たちがAIの未来について語る言葉も、いつかAIの学習データになるかもしれません。そう思うと、(もちろん慎重な議論自体は必要ですが、)積極的に良いシナリオを語っていく価値もあるかもしれません。
📄 参照論文
Alignment Pretraining: AI Discourse Causes Self-Fulfilling (Mis)alignment
所属: Geodesic Research