次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

検索するな、ナビゲートせよ:企業知識をQAとRAGのためのナビゲート可能なエージェントスキルへ

原題: Don't Retrieve, Navigate: Distilling Enterprise Knowledge into Navigable Agent Skills for QA and RAG
著者: Yiqun Sun, Pengfei Wei, Lawrence B. Hsieh
公開日: 2026-04-16 | 分野: LLM NLP AI 検索 エージェント 知識 ドキュメント 企業 RAG データ

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • Retrieval-Augmented Generation(RAG)の課題を解決するため、文書をナビゲート可能なスキルとして蒸留するCorpus2Skillを提案。
  • 文書を階層的なスキルディレクトリに変換し、LLMエージェントがコーパス全体を俯瞰し、効率的に情報探索・統合できる点が新しい。
  • 企業向け顧客サポートベンチマークWixQAで、Corpus2Skillは既存のRAG手法を大幅に上回り、高い性能を示した。

Abstract

Retrieval-Augmented Generation (RAG) grounds LLM responses in external evidence but treats the model as a passive consumer of search results: it never sees how the corpus is organized or what it has not yet retrieved, limiting its ability to backtrack or combine scattered evidence. We present Corpus2Skill, which distills a document corpus into a hierarchical skill directory offline and lets an LLM agent navigate it at serve time. The compilation pipeline iteratively clusters documents, generates LLM-written summaries at each level, and materializes the result as a tree of navigable skill files. At serve time, the agent receives a bird's-eye view of the corpus, drills into topic branches via progressively finer summaries, and retrieves full documents by ID. Because the hierarchy is explicitly visible, the agent can reason about where to look, backtrack from unproductive paths, and combine evidence across branches. On WixQA, an enterprise customer-support benchmark for RAG, Corpus2Skill outperforms dense retrieval, RAPTOR, and agentic RAG baselines across all quality metrics.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事