これまで「LLMの動きを観察して”プロンプトを調節”する」手法が追究されてきましたが、限界があるため「プロンプトによる”LLMの動きを調整”する」手法『ControlPE』が登場しました。
モデルを直接編集することなく実現するアプローチです。
自動運転システムなどを手掛けるセンスタイム社などの研究者らによる発表です。
@ Yuhan Sun et al., “To be or not to be? an exploration of continuously controllable prompt engineering”
LLMのプロンプト制御には数多の手法がありますが、論文によると、「プロンプトを調整する方法」だけではLLMを正確にコントロールすることは困難です。
そこで研究者らは、プロンプトによる「モデルへの影響」をダイレクトに微調整するアプローチ『ControlPE』を開発しました。
※ControlPE:Continuously Controllable Prompt Engineering=連続的に調整可能なプロンプトエンジニアリング
■『ControlPE』のポイント
① LoRAを利用するアプローチ
② プロンプトの影響を連続的に微調整
③ 従来のプロンプトエンジニアリングを補完する
■実装するためのステップ
② 特化データセットを生成(または利用)
③プロンプトをLoRAモデルに蒸留
④ マージの重みを調整してプロンプトの影響を制御
■性能評価結果
① モデルの応答長を効果的に制御
② 優れた精度と再現率で不適切なプロンプトを拒否
③ 最適なパフォーマンスでCoT推論を実現
■そもそもLoRAとは
モデルの重みを直接更新することなく、低ランクの行列(簡単なパーツ)を用いて、ニューラルネットワークの既存の重みに変更を加えることができる手法のことです。
料理に例えると、完成済みの逸品に対してソースや醤油、各種スパイスを用いて味付けを変えるような行為と言えるかもしれません。
研究者らは、ControlPEは競合技術と比較してもプロンプトの影響をこまかく調整できる手法だとしています。
今後のプロンプトエンジニアリングのパラダイムの一つと考えられています。
ただし、LoRAの適用、プロンプトの設計、データセットの準備、パラメータの調整など技術的な操作を含みます。また、アプリケーションレベルでの実装においては性能の検証が推奨されています。