次回の更新記事:「データは多ければ良い」は本当か?データを減らし…(公開予定日:2025年11月12日)

LLMを新しいタスクに順応させる「文脈内学習」における効率的なコンテキストの作り方

   

LLMを特定のタスクに使う際、いくつかの例を見せるだけで推論させる「文脈内学習」という技術があります。モデルを再訓練する必要がなく、とても便利な方法です。最近では、LLMが一度に処理できる文脈が大幅に長くなったため、数百個もの例を見せる「多ショット文脈内学習」が可能になり、性能も向上することが分かってきました。

しかし大量の例を毎回処理するのはデメリットもあるため、同様の性能を維持しながらトークン効率の良い方法が求められています。

背景

LLMを特定のタスクに活用する方法として、「文脈内学習」(英文では「In-Context Learning」)があります。これは何かというと、モデルに具体的な例をいくつか見せることで、そのタスクのやり方を理解させる方法です。例えば、英語を日本語に翻訳するタスクであれば、いくつかの翻訳例を見せてから「では、この新しい英文を翻訳してください」と頼むわけです。この方法の素晴らしいところは、モデル自体を再訓練する必要がないということです。

しかし、ここに大きな問題があります。多数の例を毎回モデルに読ませるということは、それだけコストが高くなるということです。例えば、150個の例を含む入力は、数万トークン、場合によっては数十万トークンにもなります。トークンというのは、テキストの最小単位のようなもので、計算量や料金の基準になります。このような長い入力を処理するには、時間もお金も大量にかかってしまうのです。また、精度面にも悪い影響があるかもしれません。

そこで本記事では、多数の例を活用した文脈内学習を効率化する手法について調べました。

以下で詳しくお話しします。

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について

■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


PAGE TOP