次回の更新記事:LLMに「もっと読みやすくして」とリファクタリングを…(公開予定日:2026年03月02日)

LLMのプロンプトを5倍圧縮するLLMLingua-2

プロンプト(プロンプトエンジニアリング、few-shot、in-context learning)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

Microsoftなどの研究者らが、プロンプト圧縮技術『LLMLingua-“2″』を公開し、タスクの精度を維持したまま圧縮率2-5倍を達成したと報告しています。

さらにプロンプトが圧縮されることにより、回答速度が倍速になるとのこと。

“LLMLingua-2: Learn Compression Target via Data Distillation for Efficient and Faithful Task-Agnostic Prompt Compression”より

プロンプト圧縮技術は広く研究されてきました。
しかしこれまでの手法は、時に重要な情報を捉えられないケースがあったり、タスクによっては不得意だったりなどの欠点がありました。

そこで研究者らはプロンプト圧縮タスクを定義し直し、より汎用的で巨力なツール『LLMLingua-2』を開発したと主張しています。
(前LLMLingua-1は2023/10に同社が公開)

■いかにして開発されたか
1. 重要な意味を保持した圧縮テキストのデータセットを構築(GPT-4を使用)
2. 文章中の各単語を「残す」か「削除する」かを判断する問題としてプロンプト圧縮を定義し直した
3. 各単語を「残す」確率を予測する能力に特化したトランスフォーマーモデルを構築した

※完成したモデルがGitHubに公開されています

■『LLMLingua-2』の性能評価結果
– MTGの議事録に基づくQAや要約タスクで3.1倍の圧縮
– さまざまなタイプの長い文書を理解するタスクで5倍の圧縮
– 数学タスクでも5倍の圧縮

いずれもタスクの精度を保ったまま圧縮を実現しています。

📄 参照論文

論文情報

関連記事