次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLM推論、プロンプトの順序で精度が30%低下

推論・思考(論理推論、Chain-of-Thought、数学的推論、問題解決)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

LLMにプロンプトを与える際、「推論ステップの流れに沿う順序」で文脈を与えないと30%以上精度が落ちる恐れがあることをDeepMindが報告しています。

GPT-3.5、GPT-4、Gemini Proなど様々なLLMで共通して言える特徴的傾向だそうです。

“Premise Order Matters in Reasoning with Large Language Models”

■「推論の流れ」とは
– LLMに論理的な思考を行わせる際には、ユーザーがプロンプトで推論に中間地点を与える必要がある
(よく知られている言葉は「ステップバイステップで考えましょう」)
– たとえば、AということはB、BということはC、といった流れで推論が進む

■今回の発見
– 上記の推論ステップの流れに沿う順番で、プロンプトの内容を組むことが推奨される
– 反対だったりバラバラの順序だと30%以上も精度が下がる

■実験の概要
– GPT-3.5、GPT-4、Gemini Pro、PaLM 2-Lなどを使用
– 論理推論タスクと数学的推論タスクで、プロンプトに配置する「推論の前提となる文章」の順序をいろいろなパターンで試した

→順序通り以外は精度が下がる結果に。

📄 参照論文

論文情報:

関連記事