次回の更新記事:AIカウンセラーは「経験から学ぶ」段階に入った(公開予定日:2026年04月06日)
AIDB Daily Papers

文書チャンク戦略と埋め込み感度の体系的調査:検索精度向上のための最適解

原題: A Systematic Investigation of Document Chunking Strategies and Embedding Sensitivity
著者: Muhammad Arslan Shaukat, Muntasir Adnan, Carlos C. N. Kuhn
公開日: 2026-03-07 | 分野: LLM NLP 効率化 知識 情報検索 埋め込み ドキュメント 評価 最適化 テキスト

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 本研究では、高密度検索における文書チャンク戦略を大規模かつ分野横断的に評価し、最適な分割手法を検証した。
  • 固定サイズ分割と比較し、内容を考慮したチャンク分割が検索精度を大幅に向上させることが明らかになり、特にParagraph Group Chunkingが有効。
  • チャンク分割は精度と効率のトレードオフがあり、動的なチャンク分割がバランスに優れる。大規模言語モデルの評価で実証。

Abstract

We present the first large-scale, cross-domain evaluation of document chunking strategies for dense retrieval, addressing a critical but underexplored aspect of retrieval-augmented systems. In our study, 36 segmentation methods spanning fixed-size, semantic, structure-aware, hierarchical, adaptive, and LLM-assisted approaches are benchmarked across six diverse knowledge domains using five different embedding models. Retrieval performance is assessed using graded relevance scores from a state-of-the-art LLM evaluator, with Normalised DCG@5 as the primary metric (complemented by Hit@5 and MRR). Our experiments show that content-aware chunking significantly improves retrieval effectiveness over naive fixed-length splitting. The top-performing strategy, Paragraph Group Chunking, achieved the highest overall accuracy (mean nDCG@5~0.459) and substantially better top-rank hit rates (Precision@1~24%, Hit@5~59%). In contrast, simple fixed-size character chunking as baselines performed poorly (nDCG@5 < 0.244, Precision@1~2-3%). We observe pronounced domain-specific differences: dynamic token sizing is strongest in biology, physics and health, while paragraph grouping is strongest in legal and maths. Larger embedding models yield higher absolute scores but remain sensitive to suboptimal segmentation, indicating that better chunking and large embeddings provide complementary benefits. In addition to accuracy gains, we quantify the efficiency trade-offs of advanced chunking. Producing more, smaller chunks can increase index size and latency. Consequently, we identify methods (like dynamic chunking) that approach an optimal balance of effectiveness and efficiency. These findings establish chunking as a vital lever for improving retrieval performance and reliability.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事