次回の更新記事:AIエージェントで論文内容を再現するワークフロー(…(公開予定日:2026年04月30日)
AIDB Daily Papers

スクリーニングすべきか、バイパスすべきか?:リソース制約下におけるLLM審査員によるAI-人間ワークフロー

原題: When to Screen, When to Bypass: LLM-Judges in Resource-Scarce AI-Human Workflow
著者: Ruihan Lin, Jiheng Zhang
公開日: 2026-03-14 | 分野: LLM 効率化 AI 最適化 数理モデル システム ワークフロー

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • AI生成物の大規模な出力には、人間の承認が必要だが、そのボトルネックをLLM審査員が解決する。
  • LLM審査員の導入は、人間のレビュー能力を向上させる一方、誤判定による手戻りという新たな問題を生む可能性がある。
  • 最適なLLM審査員の配置は、リソースのボトルネック状況に依存し、タスクの特性に応じて優先順位を逆転させることも有効である。

Abstract

AI systems can generate outputs at scale, but most outputs require human approval before release. This creates a bottleneck: humans cannot keep pace with AI-generated volume. A natural response is to insert an LLM-judge that screens outputs before they reach humans, filtering errors and amplifying effective review capacity. But judges are imperfect. False rejections send correct outputs back for unnecessary rework; false acceptances consume judge capacity without relieving humans. When should outputs be routed through the judge, and when should they bypass it directly to human review? We model this workflow as a queueing network with three resource pools and use a fluid approximation to characterize optimal judge allocation. The analysis reveals that optimal allocation depends critically on which resource is the current bottleneck: screening amplifies human capacity when reviewers are scarce, yet generates a rework trap that crowds out new production when workers are stretched thin. For heterogeneous task classes with different error profiles, optimal priority can reverse across operating regimes, and classes with complementary error structures can be mixed to achieve throughput that neither class attains alone. We propose a policy that uses the fluid-optimal allocation fractions for routing and the fluid-optimal service levels for admission control, and establish its asymptotic optimality as system scale grows. Extensions incorporate human feedback that improves rework quality and joint capacity planning under budget constraints. Numerical experiments confirm rapid convergence to the fluid optimum and demonstrate that the policy significantly outperforms benchmarks that either always screen or never screen.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事