次回の更新記事:LLMに「もっと読みやすくして」とリファクタリングを…(公開予定日:2026年03月02日)

LLM応答品質を高める26のプロンプト原則

プロンプト(プロンプトエンジニアリング、few-shot、in-context learning)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

プロンプトの原則26ヶ条をまとめた論文が公開されています。

LLaMA-1/2, GPT-3.5/4を使用してスケール評価をした結果、これらの原則が応答品質を向上させると確認できているとのことです。

“Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4″より

以下ではカテゴリー別の原則を抜粋して紹介します。

■構造について

– 誰のためのタスクなのかを書く
– 出力形式を指定する
– フォーマットする際には合図を送る

■情報について

– 難易度を下げる指示を活用する
– バイアスのない回答を求める一文を添える
– 出力した内容の理解度を試す

■相互作用について

– モデルからユーザーに質問させて情報を得させる
– 必要な情報をすべて加えることを明示する

■スタイルについて

– 禁止させる際には「罰せられます」と書く
– モデルに丁寧語を使う必要はない
– より良い解決策にはチップを与えると書く

■コーディングタスクについて

– 生成コードが複数ファイルにわたる場合は効率化する

📄 参照論文

■参照情報

著者: Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4

関連記事