次回の更新記事:ハルシネーションは「AIのせい」だけではなく「クエ…(公開予定日:2026年03月05日)
AIDBは、AI活用のノウハウ獲得や技術動向の調査のために、個人やチームが論文を探す・読む・活かす作業をサポートするプラットフォームです。なお、記事や投稿は人の手で書いています。

RAGにおいて取得された情報と事前知識が矛盾しても、情報に説得力があるときLLMは受け入れる

2024.03.01
深堀り解説

LLMには、基本的に内蔵された知識に依存するという課題があります。そこで、外部情報の検索でこの問題を解決しようとする試み(RAG)があります。しかし、外部情報とモデル自身が持つ知識に矛盾がある場合、LLMは柔軟に対応できるのでしょうか?研究者らはこの点について網羅的に調査しました。結果、LLMは一見矛盾した振る舞いを見せることがわかりました。

背景

LLMは、膨大な知識を備えていますが、知識が不正確だったり、情報が古くなるといったケースもあり、それが問題になると指摘されています。

そこで、外部情報との連携が注目されています。 一般にRAG(Retrieval-Augmented Generation)と呼ばれるシステムです。ただし、外部情報がLLMの持つ知識と矛盾するケース(以降、これを「対立知識」と呼びます)は避けられません。そんなとき何が起こるのかを理解する必要があります。

そこで研究者らは、LLMが「対立知識」に直面した時の振る舞いについて調査を行いました。

この調査の難しさは、「対立知識」をどう準備するかにありました。工夫が足らないとLLMが容易に矛盾に気づく可能性があります。

そこで本研究では、LLMの知識を明確に引き出し、それに対立する情報を用意する手法が新たに提案されています。以下の点を検証しました。

  1. 外部情報同士が矛盾する「対立知識」が提示された場合、LLMは受け入れるのか?
  2. 元々の知識と「対立知識」の両方が提示された場合、LLMはどう判断するのか?

以下では、実験結果をかなり詳細に見ていきます。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に

💬 プレミアム会員ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

記事検索

年/月/日
年/月/日

関連記事