次回の更新記事:良いREADMEを書けているかLLMで自動検証・改善する方…(公開予定日:2026年03月06日)

LLMの道徳推論:理論ベースのプロンプトが鍵

推論・思考(論理推論、Chain-of-Thought、数学的推論、問題解決)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

Q. どうすればLLMは”道徳的な判断”ができるのか?
A. ボトムアップ(ファインチューニング)よりも、トップダウン(理論ベースのプロンプト)の方が効果的である。

○ Jingyan Zhou et al. Rethinking Machine Ethics — Can LLMs Perform Moral Reasoning through the Lens of Moral Theories?

LLMが道徳的推論に強くなれば、用途が広がるとともに、人間自身のサポートにも役立ちます。

研究者らはLLMの道徳的推論の能力を高める手法を検証し、以下のように報告しています。

■ボトムアップ(ファインチューニング)の限界
① 特定の立場を過度に一般化する傾向がある
② 説明可能性に欠ける
③ 偏見を含む学習をしてしまうリスクがある
④ 実験の結果、最良モデルで70%未満の精度であった

■トップダウン(理論ベースのプロンプト)の可能性
① 平均精度が79.3%で、ボトムアップに勝る
② 3つの道徳データセット実験で高い再現率(100%, 98.1%, 93.8%)を達成

■理論ベースのプロンプト指示が優れている理由
① 文化的背景を考慮した理論を選択できる
② 判断の背後にある原理を明示できる
③ 異なる理論を柔軟に遵守できる

※今回の実験で使用された理論と実験用データセット
●理論:Justice(正義)、Deontology(義務論)、Utilitarianism(功利主義)など
●実験用データセット:ETHICSデータセット、Social-Chem-101など

■プロンプトのフレームワーク
[ユーザーの入力]① テストケースの例示
② 理論の指示
[LLMの出力]理論に基づくレスポンス(JSON形式などでの構造データが理想的)

以下画像はテストケースです。説明はALTに記載しました。

📄 参照論文

○ 参照論文

関連記事