AIDB Daily Papers
大規模言語モデルはなぜ情報検索において埋め込み類似度を密かに凌駕できるのか
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 大規模言語モデル(LLM)は、埋め込み類似度ではなく言語理解と推論で関連性を直接評価する新しい情報検索手法を可能にした。
- 埋め込み類似度は関連性の近視眼的解釈であり、LLMによる関連性判断システム(LLM-RJS)は推論によりこの限界を克服できる可能性を持つ。
- TREC-DL 2019データセットでの比較実験で、LLM-RJSは埋め込み検索システムを上回る潜在能力を示すも、既存の評価データセットの限界も明らかになった。
Abstract
With the emergence of Large Language Models (LLMs), new methods in Information Retrieval are available in which relevance is estimated directly through language understanding and reasoning, instead of embedding similarity. We argue that similarity is a short-sighted interpretation of relevance, and that LLM-Based Relevance Judgment Systems (LLM-RJS) (with reasoning) have potential to outperform Neural Embedding Retrieval Systems (NERS) by overcoming this limitation. Using the TREC-DL 2019 passage retrieval dataset, we compare various LLM-RJS with NERS, but observe no noticeable improvement. Subsequently, we analyze the impact of reasoning by comparing LLM-RJS with and without reasoning. We find that human annotations also suffer from short-sightedness, and that false-positives in the reasoning LLM-RJS are primarily mistakes in annotations due to short-sightedness. We conclude that LLM-RJS do have the ability to address the short-sightedness limitation in NERS, but that this cannot be evaluated with standard annotated relevance datasets.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: