次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

プロンプト圧縮でLLM性能向上とハルシネーション

プロンプト(プロンプトエンジニアリング、few-shot、in-context learning)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

研究者らは6種類のプロンプト圧縮手法を比較して効果を検証しました。その結果、
長文プロンプトを適度に短くすると、かえってモデルの性能が向上することがある。
圧縮の仕方によってはモデルごとに返答の違いが出る(Claudeでは簡潔になる、GPTでは逆に長くなる傾向)。
圧縮によってハルシネーションが増える全体的な傾向はある。
などの注目すべき発見がありました。

LLMへのプロンプトが長くなると、API利用料が高くなり、計算コストが増え、サービスによっては使用制限に早く達してしまいます。
そこで効率化したいというニーズがあります。しかし指示文を単純に削るだけでは情報の欠落によってモデルの精度が下がる可能性もあります。

総じて、プロンプト圧縮は非常に有効であるものの、やり方によって結果が大きく異なるという結果です。

なお、平均的に効果が高いプロンプト圧縮ツールは「LongLLMLingua」「LLMLingua-2」とのことです。

📄 参照論文

An Empirical Study on Prompt Compression for Large Language Models

著者: Zheng Zhang, Jinyi Li, Yihuai Lan, Xiang Wang, Hao Wang

所属: The Hong Kong University of Science and Technology (Guangzhou), South China University of Technology, University of Science and Technology of China

関連記事