次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

LLMアノテーションのコストを80%削減!テキスト分類の効率化戦略

原題: Researchers waste 80% of LLM annotation costs by classifying one text at a time
著者: Christian Pipal, Eva-Maria Vogel, Morgan Wack, Frank Esser
公開日: 2026-04-04 | 分野: LLM NLP 効率化 アノテーション テキスト API 実験 自然言語処理 コスト 大規模言語モデル

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • LLMを用いたテキスト分類において、一件ずつ処理する非効率なアノテーションが横行している現状を指摘した。
  • テキストのバッチ処理と変数のスタックによりAPIコール数を大幅に削減し、コスト効率を改善する手法を提案する。
  • 実験の結果、バッチサイズ100まで精度を維持でき、変数スタックもタスクの複雑さに応じて有効であることを示した。

Abstract

Large language models (LLMs) are increasingly being used for text classification across the social sciences, yet researchers overwhelmingly classify one text per variable per prompt. Coding 100,000 texts on four variables requires 400,000 API calls. Batching 25 items and stacking all variables into a single prompt reduces this to 4,000 calls, cutting token costs by over 80%. Whether this degrades coding quality is unknown. We tested eight production LLMs from four providers on 3,962 expert-coded tweets across four tasks, varying batch size from 1 to 1,000 items and stacking up to 25 coding dimensions per prompt. Six of eight models maintained accuracy within 2 pp of the single-item baseline through batch sizes of 100. Variable stacking with up to 10 dimensions produced results comparable to single-variable coding, with degradation driven by task complexity rather than prompt length. Within this safe operating range, the measurement error from batching and stacking is smaller than typical inter-coder disagreement in the ground-truth data.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事