Q. どうすればLLMは”道徳的な判断”ができるのか?
A. ボトムアップ(ファインチューニング)よりも、トップダウン(理論ベースのプロンプト)の方が効果的である。
○ Jingyan Zhou et al. Rethinking Machine Ethics — Can LLMs Perform Moral Reasoning through the Lens of Moral Theories?
LLMが道徳的推論に強くなれば、用途が広がるとともに、人間自身のサポートにも役立ちます。
研究者らはLLMの道徳的推論の能力を高める手法を検証し、以下のように報告しています。
■ボトムアップ(ファインチューニング)の限界
① 特定の立場を過度に一般化する傾向がある
② 説明可能性に欠ける
③ 偏見を含む学習をしてしまうリスクがある
④ 実験の結果、最良モデルで70%未満の精度であった
■トップダウン(理論ベースのプロンプト)の可能性
① 平均精度が79.3%で、ボトムアップに勝る
② 3つの道徳データセット実験で高い再現率(100%, 98.1%, 93.8%)を達成
■理論ベースのプロンプト指示が優れている理由
① 文化的背景を考慮した理論を選択できる
② 判断の背後にある原理を明示できる
③ 異なる理論を柔軟に遵守できる
※今回の実験で使用された理論と実験用データセット
●理論:Justice(正義)、Deontology(義務論)、Utilitarianism(功利主義)など
●実験用データセット:ETHICSデータセット、Social-Chem-101など
■プロンプトのフレームワーク
[ユーザーの入力]① テストケースの例示
② 理論の指示
[LLMの出力]理論に基づくレスポンス(JSON形式などでの構造データが理想的)
以下画像はテストケースです。説明はALTに記載しました。