AIDB Daily Papers
LLMアノテーションのコストを80%削減!テキスト分類の効率化戦略
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLMを用いたテキスト分類において、一件ずつ処理する非効率なアノテーションが横行している現状を指摘した。
- テキストのバッチ処理と変数のスタックによりAPIコール数を大幅に削減し、コスト効率を改善する手法を提案する。
- 実験の結果、バッチサイズ100まで精度を維持でき、変数スタックもタスクの複雑さに応じて有効であることを示した。
Abstract
Large language models (LLMs) are increasingly being used for text classification across the social sciences, yet researchers overwhelmingly classify one text per variable per prompt. Coding 100,000 texts on four variables requires 400,000 API calls. Batching 25 items and stacking all variables into a single prompt reduces this to 4,000 calls, cutting token costs by over 80%. Whether this degrades coding quality is unknown. We tested eight production LLMs from four providers on 3,962 expert-coded tweets across four tasks, varying batch size from 1 to 1,000 items and stacking up to 25 coding dimensions per prompt. Six of eight models maintained accuracy within 2 pp of the single-item baseline through batch sizes of 100. Variable stacking with up to 10 dimensions produced results comparable to single-variable coding, with degradation driven by task complexity rather than prompt length. Within this safe operating range, the measurement error from batching and stacking is smaller than typical inter-coder disagreement in the ground-truth data.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: