AIDB Daily Papers
人間とLLMの確率的推論における乖離:あいまいな状況での判断の違い
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 人間の確率的推論とLLMの推論能力を比較するため、ProbCOPAという新しいデータセットを構築し、人間の判断を詳細に分析した。
- 既存のLLMは論理的・数学的なタスクで高い性能を示す一方、曖昧な状況下での確率的推論においては人間との差が課題となっている。
- 実験の結果、LLMは人間のような確率分布を生成できず、推論過程に特有のパターンが見られた。人間の判断とのずれが明らかになった。
Abstract
Human reasoning often involves working over limited information to arrive at probabilistic conclusions. In its simplest form, this involves making an inference that is not strictly entailed by a premise, but rather only likely given the premise. While reasoning LLMs have demonstrated strong performance on logical and mathematical tasks, their behavior on such open-ended, non-deterministic inferences remains largely unexplored. We introduce ProbCOPA, a dataset of 210 handcrafted probabilistic inferences in English, each annotated for inference likelihood by 25--30 human participants. We find that human responses are graded and varied, revealing probabilistic judgments of the inferences in our dataset. Comparing these judgments with responses from eight state-of-the-art reasoning LLMs, we show that models consistently fail to produce human-like distributions. Finally, analyzing LLM reasoning chains, we find evidence of a common reasoning pattern used to evaluate such inferences. Our findings reveal persistent differences between humans and LLMs, and underscore the need to evaluate reasoning beyond deterministic settings.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: