AIアライメント(道徳や価値観の枠組み)に関する網羅的な調査が行われました。
北京大学、ケンブリッジ大学、カーネギーメロン大学などの研究者らによる発表です。
彼らはAIアライメントの4原則を提案し説明しています。
@ Jiaming Ji et al., “AI Alignment: A Comprehensive Survey”
論文によると、AIの開発が加速するにつれて、人間の意図や価値観に沿ったAIシステムづくりの枠組み(=AIアライメント)がますます重要になってきています。
もしAIアライメントが不十分なままAIが高度化していくと、社会のリスクが拡大していく恐れがあります。
そこで研究者らは、現時点でのAIアライメントの4原則を提案しています。
■研究者らが提案するAIアライメントの4原則
① 堅牢性(Robustness)
② 解釈可能性(Interpretability)
③ 制御可能性(Controllability)
④ 倫理性(Ethicality)
■堅牢性(Robustness)について
① さまざまな状況や障害下でも安定した機能を持つ
② 入力データの変動やエラーに対しても正確に動作する
③ 人間や他のシステムへの危害は最小限である
■解釈可能性(Interpretability)について
① 出力(決定や推測)にいたる経緯を明確に示す
② AIの行動理由が人間が理解できる
③ 人間が信頼でき、決定を受け入れられやすい
■制御可能性(Controllability)について
① AIの行動は、人間の指示や目標に従って調整する
② 人間がAIの動作に介入し、修正や停止を行える
③ 自律性を持つが、制御可能な範囲にとどめる
■倫理性(Ethicality)について
① 人間社会の倫理や道徳に従う
② 文化的多様性や地域ごとの価値観を尊重する
③ 不正行為や偏見を生み出さない
なお論文では、これらAIアライメントを実現する技術的な進展についても多く触れられています。
注意点としては、信頼性の高い理想的なAIシステムを構築するには、現実の不均一なデータ分布をクリアする必要があるとの見方が存在します。
ただし、本課題にフォーカスして解決を試みる研究が既に進められており今後も促進が期待されています。