次回の更新記事:2026年1月、AIDBで最も読まれた記事を振り返る(公開予定日:2026年01月31日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

RAGの進化形と話題のAgentic RAG、ふつうのRAGと何が違うのか

深堀り解説

RAGといえば、LLMに外部知識を与えて回答精度を高める手法として、すでに多くの企業で導入が進んでいます。しかし最近、LLMの自律的な判断能力を活かした「Agentic RAG」という考え方が注目を集めています。

本記事では、RAGの新しいアプローチである「Agentic RAG」と従来型のRAGを比較した論文を紹介します。

背景

LLMの課題の一つに「学習していない情報」へのアクセスがあり、たとえば自社の社内マニュアルや、つい最近発表されたニュースなどは、LLMの頭の中には入っていません。そこで登場したのがRAG(Retrieval-Augmented Generation)という仕組みです。

ユーザーが質問すると、まず関連しそうな文書をデータベースから引っ張ってきて、その内容と一緒にLLMへ渡します。すると、LLMは検索結果を参考にしながら回答を作ってくれます。自社の情報を活用したチャットボットなどで広く使われている手法です。

ただ、このシンプルなRAGにも困った点があります。検索してきた文書が的外れだったり、そもそも検索なんて必要ない質問なのに毎回検索してしまったり。こうした弱点を補うために、検索の前後にさまざまな工夫を加える方法が考えられてきました。

そんな中、最近になって別のアプローチが注目を集めています。それが「Agentic RAG」です。Agentic RAGでは、LLM自身が「検索するかどうか」「質問文をどう変えるか」「何回検索を繰り返すか」といったことを、その場で判断します。いわばLLMが司令塔となって、状況に応じて柔軟に動くわけです。

では、ふつうのRAGとAgentic RAG、実際にはどちらがうまく機能するのでしょうか。コストや処理時間はどう変わるのでしょうか。

以下では、この2つのアプローチを実験的に比較した論文をもとに、それぞれの特徴を探っていきます。

プレミアム会員限定コンテンツです

閲覧には、アカウント作成後の決済が必要です。

  • 全記事・論文コンテンツを無制限で閲覧可能
  • 平日毎日更新、専門家による最新リサーチを配信
  • 新着論文データベース(日本語含む便利な検索ツール)
  • 短信ライブラリの高度な機能

関連記事