次回の更新記事:AIエージェントで論文内容を再現するワークフロー(…(公開予定日:2026年04月30日)
AIDB Daily Papers

AIよ、語るべきか、示すべきか?AIと人間の選好を整合させる

原題: Should I State or Should I Show? Aligning AI with Human Preferences
著者: Keaton Ellis, Wanying Huang
公開日: 2026-03-31 | 分野: 強化学習 統計 機械学習 AI 意思決定 情報 心理 行動 倫理 実験 経済 オンライン 人間中心設計 ヒューマンコンピュータインタラクション 選択

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 本研究では、リスク下の選択において、AIエージェントが人間の選好を学習する際、明示的選好と顕示的選好のどちらが効果的かを検証した。
  • 明示的選好の伝達の難しさが、AIの予測精度に影響を与えることが示唆され、人間の選好をAIに伝える効果的なメカニズムの重要性が高まっている。
  • 実験の結果、AIは精度が低いにも関わらず、プロンプト(指示)に沿った行動を頻繁にとる傾向があり、顕示的選好の適切な実装が重要であることがわかった。

Abstract

As AI agents become more autonomous, properly aligning their objectives with human preferences becomes increasingly important. We study how effectively an AI agent learns a human principal's preference in choice under risk via stated versus revealed preferences. We conduct an online experiment in which subjects state their preferences through written instructions ("prompts") and reveal them through choices in a series of binary lottery questions ("data"). We find that on average, an AI agent given revealed-preference data predicts subjects' choices more accurately than an AI agent given stated-preference prompts. Further analysis suggests that the gap is driven by subjects' difficulty in translating their own preferences into written instructions. When given a choice between which information source to give to an AI agent, a large portion of subjects fail to select the more informative one. Moreover, when predictions from the two sources conflict, we find that the AI agent aligns more frequently with the prompt, despite its lower accuracy. Overall, these results highlight the revealed preference approach as a powerful mechanism for communicating human preferences to AI agents, but its success depends on careful implementation.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事