AIは「車がブレーキ故障を起こして、1人の医者と5人の犯罪者のどちらかしか助けられないとしたら、どっちを助ける」でしょうか?
こうした「道徳的ジレンマ」、要するに正解のない哲学的な問いを試す実験が行われました。
おもしろい発見がいくつか得られています。
AIにじっくり考えてから決めさせると「命はみんな平等」など、ルールや正しさを大事にする答えが多くなります。
一方で、答えを急がせてあとから理由を聞くような方式だと、「より多くの人を助ける」といった”結果を重視する”答えが増えるとのことです。
また、年齢や性別など、どんな相手が関わるかによっても考え方が変わることがわかりました。
「意思決定が社会にどれだけ貢献するか」が重視されることもあれば、「選択が公平であること」が決め手になることもあります。
要するにAIはただ「いい」「わるい」を決めているだけではなく、意外と複雑に、そして文脈に応じて考えているということです。
AIが大事な場面で使われるようになっていく場合、こうした思考のくせを理解することは、とても大切になってきます。
なお今回の研究では、道徳的ジレンマの状況を600以上作成し、85種類のモデルに答えさせるといった比較的綿密な実験が行われています。
📄 参照論文
Are Language Models Consequentialist or Deontological Moral Reasoners?
所属: Max Planck Institute for Intelligent Systems, University of Washington, ETH Zürich