AIDB Daily Papers
FireBench:企業およびAPI駆動型LLMアプリケーションにおける指示追従能力の評価
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 企業利用に特化したLLMの指示追従能力を評価するFireBenchベンチマークを構築し、情報抽出や顧客サポートなど多様なタスクを網羅的に評価します。
- 既存のベンチマークがチャットアシスタント向けに偏る中、FireBenchは企業やAPI利用の実態に即した評価を提供し、より実用的なLLMの性能評価を可能にします。
- 11のLLMを評価した結果、企業環境における指示追従の課題が明らかになり、モデル選択や改善に役立つ知見が得られました。
Abstract
Instruction following is critical for LLMs deployed in enterprise and API-driven settings, where strict adherence to output formats, content constraints, and procedural requirements is essential for enabling reliable LLM-assisted workflows. However, existing instruction following benchmarks predominantly evaluate natural language generation constraints that reflect the needs of chat assistants rather than enterprise users. To bridge this gap, we introduce FireBench, an LLM instruction following benchmark grounded in real-world enterprise and API usage patterns. FireBench evaluates six core capability dimensions across diverse applications including information extraction, customer support, and coding agents, comprising over 2,400 samples. We evaluate 11 LLMs and present key findings on their instruction following behavior in enterprise scenarios. We open-source FireBench at fire-bench.com to help users assess model suitability, support model developers in diagnosing performance, and invite community contributions.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: