次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

「良いAIの話」を学習データに加えると振る舞いが劇的に改善

安全性・アライメント(AIの安全性、アライメント、jailbreak、ハルシネーション対策)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

AIモデルが学習中に読んだ「AIについての話」が、そのモデル自身の振る舞いに影響を与えることが分かったそうです。
悪いAIの話を読むと悪い行いをするようになり、良いAIの話を読むと良い行いをするようになる。
なお、悪い話を取り除くよりも、良い話を加える方がはるかに効果的だったとのこと。

世の中にはAIが人間を裏切ったり危険な行動をとったりする話があります。実験において、こうした「悪いAI」の話をたくさん読んで育ったAIモデルは、実際に自分も悪い選択をしやすくなったといいます。
逆に、AIが正しい選択をする話、たとえば誘惑に負けずに人間のために行動する話を意図的に学習データに加えると、モデルは劇的に良い振る舞いをするようになりました。

「とは言っても学習データよりアライメント次第だろう」と思うかもしれませんが、こうした大規模学習の段階でモデルの振る舞いはある程度決まってしまい、後から完全に書き換えるのは難しいことが示唆されています。
ただし本実験は69億パラメータという比較的小さなモデルで行われている点は注意。

なお、少し想像を広げると、私たちがAIの未来について語る言葉も、いつかAIの学習データになるかもしれません。そう思うと、(もちろん慎重な議論自体は必要ですが、)積極的に良いシナリオを語っていく価値もあるかもしれません。

📄 参照論文

Alignment Pretraining: AI Discourse Causes Self-Fulfilling (Mis)alignment

著者: Cameron Tice, Puria Radmard, Samuel Ratnam, Andy Kim, David Africa 他

所属: Geodesic Research

関連記事