LLMの注意を特定の情報に対して向けさせる手法『PASTA』が開発されました。
4つの難しいタスクにおいて(オープンソースLLMの)平均22%の正確さ向上を達成するなど、一貫して大幅なパフォーマンスの改善が確認されています。
ジョージア工科大、UCバークレー、Microsoftの研究グループによる発表です。
@ Qingru Zhang et al., “Tell Your Model Where to Attend: Post-hoc Attention Steering for LLMs”
LLMは、複雑なユーザー指示プロンプトにおける背景を理解する必要を迫られています。
しかしLLM長い文脈や難しい指示に圧倒されがちで、注目すべき細部を完全に捉えられないことがあるのが現状です。
そこで研究者たちは、ユーザーが特定の情報に対してモデルの注意を向けさせる手法『PASTA(Post-hoc Attention STeering Approach)』を開発しました。
■PASTAの仕組みとポイント
① 注目すべきトークンの位置で生成されるスコアを強調
② ユーザー指定のコンテキストの部分に合わせてモデル生成を調整
③ 訓練後に適用され、モデルパラメータの変更を必要としない
④ 有効な注意ヘッドの効率的なモデルプロファイリングアルゴリズムを使用
⑤ 複数のタスクから小さなトレーニングセットをサブサンプリング
⑥ これらのタスクで各個別ヘッドの注意ステアリングの性能を評価する
■性能評価結果
① GPT-J-6BとLLAMA-7Bを使用
② 「複雑な指示」、「長文のコンテキスト」、「コンテキスト内の知識矛盾」が含まれるさまざまな難しいタスクにおけるPASTAの有効性を評価
③ 4つの難しいタスクにおけるLLAMA-7Bのいくつかのプロンプト戦略に対して、平均22%の正確さの改善を達成
■注意点
① PASTAが適用されるのは訓練後であり、モデルパラメータの変更を必要としない
② モデルプロファイリングに基づいてどの注意ヘッドをステアリングに使用するかを識別する必要がある
■補足
コードはGitHubで公開されています。