RAGといえば、LLMに外部知識を与えて回答精度を高める手法として、すでに多くの企業で導入が進んでいます。しかし最近、LLMの自律的な判断能力を活かした「Agentic RAG」という考え方が注目を集めています。
本記事では、RAGの新しいアプローチである「Agentic RAG」と従来型のRAGを比較した論文を紹介します。

背景
LLMの課題の一つに「学習していない情報」へのアクセスがあり、たとえば自社の社内マニュアルや、つい最近発表されたニュースなどは、LLMの頭の中には入っていません。そこで登場したのがRAG(Retrieval-Augmented Generation)という仕組みです。
ユーザーが質問すると、まず関連しそうな文書をデータベースから引っ張ってきて、その内容と一緒にLLMへ渡します。すると、LLMは検索結果を参考にしながら回答を作ってくれます。自社の情報を活用したチャットボットなどで広く使われている手法です。
ただ、このシンプルなRAGにも困った点があります。検索してきた文書が的外れだったり、そもそも検索なんて必要ない質問なのに毎回検索してしまったり。こうした弱点を補うために、検索の前後にさまざまな工夫を加える方法が考えられてきました。
そんな中、最近になって別のアプローチが注目を集めています。それが「Agentic RAG」です。Agentic RAGでは、LLM自身が「検索するかどうか」「質問文をどう変えるか」「何回検索を繰り返すか」といったことを、その場で判断します。いわばLLMが司令塔となって、状況に応じて柔軟に動くわけです。
では、ふつうのRAGとAgentic RAG、実際にはどちらがうまく機能するのでしょうか。コストや処理時間はどう変わるのでしょうか。
以下では、この2つのアプローチを実験的に比較した論文をもとに、それぞれの特徴を探っていきます。