LLMの検索結果をさらに正確にする手法『CRAG(修正型検索拡張生成:Corrective Retrieval Augmented Generation)』

   
★AIDB会員限定Discordを開設いたしました! 会員登録/ログインの上、マイページをご覧ください。
★コンサルティングサポート(調査・研修・開発支援)をご希望の方はお問合せください。

LLMは知識が不足しているときに不正確な出力をしてしまうことがあります。正確性を向上するために検索を活用する手法(RAG)も存在しますが、検索結果の精度に左右されるといった課題があります。

そこでGoogleなどの研究者らは今回、モデルが検索した結果の信頼性を評価して、もし不正確だと思われる場合には補完することで、より正確な文章生成を実現する手法を提案しています。

評価実験により、本手法の性能が実証されています。


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

参照論文情報

  • タイトル:Corrective Retrieval Augmented Generation
  • 著者:Shi-Qi Yan, Jia-Chen Gu, Yun Zhu, Zhen-Hua Ling
  • 所属:University of Science and Technology of China, University of California, Google Research
  • URL:https://doi.org/10.48550/arXiv.2401.15884

背景

LLMは文章生成などを中心に様々なタスクで優れた能力を発揮しますが、誤った情報や知識を出力してしまう「ハルシネーション」という問題を抱えています。

そんな知識不足の問題に対処することを目的の一つとして、モデルが関連する情報を取り込む手法「RAG:Retrieval-Augmented Generation」が出現しました。Metaなどの研究者らによる2020年の考案に端を発するものです。

しかしRAGは有効な手段ではあるものの、取り込んだ文書が間違っていた場合、かえって誤りを助長するという課題があります。

最近の研究では、必要な時に必要な外部知識を取り込むなど、RAGの改善が進められています。これまで、「RAGをより便利に」「そもそも使うべきか」という点を中心に探求されてきました。

そして今回、Googleなどの研究者らは「取り込んだ情報が間違っている場合」に焦点を当て、従来の手法とは異なるアプローチ「修正型検索拡張生成(CRAG:Corrective Retrieval Augmented Generation)」を提案しています。

CRAG の利点をまとめると以下のようになるとのことです。

  • 不正確な情報を排除し、信頼できる情報のみを使用する
  • リトリーバルされた情報からキー情報のみを抽出し、不要な部分を削除する
  • さまざまな LLM 手法と容易に統合することができ、さまざまなタスクに適用することができる






本記事では詳細を紹介します。

CRAGのフレームワーク

CRAGでは、まず、

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP