次回の更新記事:LLMに「もっと読みやすくして」とリファクタリングを…(公開予定日:2026年03月02日)

RAGの精度を向上、LLMに「無視」を学習

RAG・検索(検索拡張生成、知識ベース、ベクトル検索)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

RAGにおいてLLMが「役立たない情報を無視」できるようにすることで、QAタスクで従来の手法を大幅に上回る結果を達成したとのこと。

UCバークレーの研究者らによる発表です。

“RAFT: Adapting Language Model to Domain Specific RAG”より

分野固有の知識に適応するRAGにおいて、最適な戦略は明確になっていません。
今回研究者らは、関連性の低い文書を無視するようにLLMを学習させるフレームワークを提案しています。

■フレームワーク
1. 質問、関連文書、不要な文書、回答のペアデータを準備する
2. モデルをファインチューニングする
※不要な文書を含めた学習により、「無視」を習得する

■実験内容
– PubMed QA、HotpotQA、Gorilla APIベンチマークなどの様々なデータセットで評価
– ベースライン(通常のRAGなど)と比較
– 思考の連鎖(CoT)の影響も検証

■実験結果
– 全てのデータセットにおいて、ベースラインを上回る性能を示した。
– 思考の連鎖(CoT)を用いることで、性能がさらに向上することが確認された

📄 参照論文

論文情報

関連記事