次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMの精度向上、プロンプトを2回繰り返すだけ

プロンプト(プロンプトエンジニアリング、few-shot、in-context learning)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

Googleの研究者らが短い論文で「LLMに質問するとき、同じ質問を2回続けて入力するだけで、LLMの回答精度が上がる」という発見を報告しています。
あまりに単純すぎて見落とされていた改善策が、主要なモデルすべてで一貫して効果を発揮したという点が、この研究の意外性です。

なぜこれが効くのか。
LLMは文章を前から順番に読んでいくため、たとえば選択肢が先にあって質問が後にあると、選択肢を読んでいる時点ではまだ何を聞かれているのかわからない。
しかし同じ内容を2回繰り返すと、2回目を処理するときには1回目の全体像がすでに頭に入っているので、文脈を完全に把握した状態で答えられる、ということです。
(言われてみれば極めてシンプルな話)

このテクニックの価値は、手間もコストも最低限という点です。
(「ステップバイステップで考えて」といった指示は効果的なこともあるものの、時間もコストもかかる)

なお、最近の高性能な推論モデルは、訓練の過程で自然と「質問内容の一部を繰り返してから答える癖」を身につけているとのことです。
この手法は、そうした有用な動作を人間側が先回りして与えるものとも言えます。

📄 参照論文

Prompt Repetition Improves Non-Reasoning LLMs

著者: Yaniv Leviathan, Matan Kalman, Yossi Matias

所属: Google Research

関連記事