次回の更新記事:良いREADMEを書けているかLLMで自動検証・改善する方…(公開予定日:2026年03月06日)

LLM自身に質問を言い換えさせるRaR

プロンプト(プロンプトエンジニアリング、few-shot、in-context learning)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

ユーザープロンプトをLLMが一旦言い換えて、LLM自身が理解しやすくする手法『RaR』が新たに提案されています。

ChatGPT(GPT-4、GPT-3.5)やその他のLLMで効果が確認されています。
実行プロンプトは以下のように比較的シンプルです。

カリフォルニア大学の研究者らによる発表です。

@ Yihe Deng et al., “Rephrase and Respond: Let Large Language Models Ask Better Questions for Themselves”

人間とLLMの思考フレームの間には違いがあるため、人間が「これは明確な文だ」と思う質問をしても、LLMは時として、思わぬ解釈をし、誤った応答をする場合があります。

そこで研究者らは人間のプロンプトをLLM自身が言い換えて応答する『RaR(Rephrase and Respond:言い換えと応答)』メソッドを考案しました。

■実行プロンプト
「上記の質問を、より良く答えるために言い換えて拡張してください。元の質問の情報を全て維持してください。」
「言い換えた質問に対するあなたの答えを使って、元の質問に答えてください。」

■デモ
ユーザー:「「これはどんな花ですか?」
上記の質問を、より良く答えるために言い換えて拡張してください。元の質問の情報を全て維持してください。」
LLM:「この花の種類、特徴、および名前について詳しく説明してください。」
ユーザー:「(原文)「これはどんな花ですか?」
(言い換え)「この花の種類、特徴、および名前について詳しく説明してください。」
言い換えた質問に対するあなたの答えを使って、元の質問に答えてください。」
LLM:「これはバラ科の植物で、ピンクの花びらが特徴的なバラです。その名前は多くの種類がありますが、この特定の品種は「ピース」と呼ばれています。」

■理論とロジック
① 質問の意図をより明確にすることが正確な応答を促進する
② 質問の言い換えを通じて意味の明瞭さが向上する
③ 「One-step RaR」と「Two-step RaR」の2つオプションがある
④ 本アプローチは教師なしで、トレーニングを必要とせず、すべての質問に対して適用可能

■実験の内容と結果
① 知識分類タスクや常識理解タスクなどさまざまなベンチマークを使用
② One-step RaRとTwo-step RaRの両方を検証
③ GPT-4のパフォーマンス向上が有意に確認された
④ GPT-3.5やVicunaなど様々なLLMも性能向上が達成された

📄 参照論文

論文情報と関連研究

関連記事