AIDB Daily Papers
AIが対立する二つの視点の間に、共感的に中立な妥協案を生成する方法
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、対立する二つの視点の間で、共感的に中立な妥協案を生成する手法を提案した。
- 外部の共感的な類似性を反復フィードバックとして利用する手法が、標準的な連鎖思考(CoT)推論を上回る性能を示した。
- 共感的中立性の利用は、妥協案の受容性を向上させ、より効率的なモデル学習を可能にすることが示された。
Abstract
Large Language Models (LLMs) excel academically but struggle with social intelligence tasks, such as creating good compromises. In this paper, we present methods for generating empathically neutral compromises between two opposing viewpoints. We first compared four different prompt engineering methods using Claude 3 Opus and a dataset of 2,400 contrasting views on shared places. A subset of the gen erated compromises was evaluated for acceptability in a 50-participant study. We found that the best method for generating compromises between two views used external empathic similarity between a compromise and each viewpoint as iterative feedback, outperforming stan dard Chain of Thought (CoT) reasoning. The results indicate that the use of empathic neutrality improves the acceptability of compromises. The dataset of generated compromises was then used to train two smaller foundation models via margin-based alignment of human preferences, improving efficiency and removing the need for empathy estimation during inference.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: