RAG(検索拡張生成)において、コンテキストを参照した場合でもLLMは回答を誤るケースがありますが、そのエラーはいくつかの種類に分類できるとのこと。
“RAGged Edges: The Double-Edged Sword of Retrieval-Augmented Chatbots”より
■研究背景
RAGシステムに対してユーザーは一般に「これできっと正しい答えが得られるはずだろう」という過度な期待を抱くことがあります。
その過信を正して対策をする必要があります。
→研究者らが実験してRAGのエラータイプを分析
■コンテキストが得られても応答を間違うときの原因
1. ノイズが多い
2. 指示と一致していない
3. 構造が異常
4. 内容が不完全
5. モデルが生成して補完してしまう
実験ではコンテキストが得られた場合でも1割は上記いずれかの原因に基づくエラーに遭遇すると述べられており、対策としてプロンプトエンジニアリングを工夫することが挙げられています。