最新の記事:科学は「研究」と「査読」両方が加速していく AIと…
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

LLMのプロンプトで「中央の情報が無視されやすい」のはなぜか コンテキストの長さで検証した結果

深堀り解説

本記事では、LLMが入力のどこに注目するのかを「コンテキストの長さ」という観点から検証した研究を紹介します。

プロンプトの中で中央の情報が無視されやすくなる「Lost in the Middle」という現象は知られていますが、これまでの研究では結果にばらつきがありました。その理由を明らかにするため、今回は入力の長さではなく「どの程度ウィンドウを使っているか」に着目しています。

プロンプト設計やタスク実行の際に、情報をどこに置くべきかを考えるヒントになる内容です。

背景

LLMでは、扱える入力の長さ(いわゆるコンテキストウィンドウ)が拡大しつづけています。現在では十数万から数十万トークンに及び、大量の情報を一度に処理できるようになってきました。

ただし、何でもかんでも情報を詰め込めばうまくいく、というわけではありません。モデルが入力のどの部分に注目するかは、情報の配置によって大きく左右されます。冒頭や末尾にある情報は重視されやすい一方で、中央にある情報は無視されやすい傾向があります。こうした現象は「Lost in the Middle」効果と呼ばれています。

この位置バイアスの影響は、モデルの種類やコンテキストウィンドウの長さによって異なると考えられています。

そこで本記事では、入力の絶対的な長さではなく、「そのモデルのコンテキストウィンドウに対して、どれくらいの長さか」という相対的な視点から位置バイアスをとらえ直し、どのような条件でこの効果が現れるのかを詳しく分析した取り組みを取り上げます。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能
  • プロンプト管理ツールの利用

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に
  • プロンプト管理ツールの無制限使用

記事検索

年/月/日
年/月/日

関連記事