次回の更新記事:AIにコードを違う言語に翻訳させる前に行うべき、エ…(公開予定日:2026年02月22日)

RAGの進化形と話題のAgentic RAG、ふつうのRAGと何が違うのか

深堀り解説

RAGといえば、LLMに外部知識を与えて回答精度を高める手法として、すでに多くの企業で導入が進んでいます。しかし最近、LLMの自律的な判断能力を活かした「Agentic RAG」という考え方が注目を集めています。

本記事では、RAGの新しいアプローチである「Agentic RAG」と従来型のRAGを比較した論文を紹介します。

背景

LLMの課題の一つに「学習していない情報」へのアクセスがあり、たとえば自社の社内マニュアルや、つい最近発表されたニュースなどは、LLMの頭の中には入っていません。そこで登場したのがRAG(Retrieval-Augmented Generation)という仕組みです。

ユーザーが質問すると、まず関連しそうな文書をデータベースから引っ張ってきて、その内容と一緒にLLMへ渡します。すると、LLMは検索結果を参考にしながら回答を作ってくれます。自社の情報を活用したチャットボットなどで広く使われている手法です。

ただ、このシンプルなRAGにも困った点があります。検索してきた文書が的外れだったり、そもそも検索なんて必要ない質問なのに毎回検索してしまったり。こうした弱点を補うために、検索の前後にさまざまな工夫を加える方法が考えられてきました。

そんな中、最近になって別のアプローチが注目を集めています。それが「Agentic RAG」です。Agentic RAGでは、LLM自身が「検索するかどうか」「質問文をどう変えるか」「何回検索を繰り返すか」といったことを、その場で判断します。いわばLLMが司令塔となって、状況に応じて柔軟に動くわけです。

では、ふつうのRAGとAgentic RAG、実際にはどちらがうまく機能するのでしょうか。コストや処理時間はどう変わるのでしょうか。

以下では、この2つのアプローチを実験的に比較した論文をもとに、それぞれの特徴を探っていきます。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能
  • プロンプト管理ツールの利用

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に
  • プロンプト管理ツールの無制限使用

記事検索

年/月/日
年/月/日

関連記事