AIDB Daily Papers
AEC-Bench:建築・エンジニアリング・建設分野におけるエージェントシステムのマルチモーダルベンチマーク
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- AEC分野の実世界タスクでエージェントシステムを評価するマルチモーダルベンチマークAEC-Benchを構築した。
- 図面理解、シート間の推論、プロジェクトレベルの連携を要するタスクを網羅し、分野特化型基盤モデルの性能向上に貢献する。
- Claude CodeやCodexなど、基盤モデルの性能を一様に向上させるツールとハーネス設計技術を特定した。
Abstract
The AEC-Bench is a multimodal benchmark for evaluating agentic systems on real-world tasks in the Architecture, Engineering, and Construction (AEC) domain. The benchmark covers tasks requiring drawing understanding, cross-sheet reasoning, and construction project-level coordination. This report describes the benchmark motivation, dataset taxonomy, evaluation protocol, and baseline results across several domain-specific foundation model harnesses. We use AEC-Bench to identify consistent tools and harness design techniques that uniformly improve performance across foundation models in their own base harnesses, such as Claude Code and Codex. We openly release our benchmark dataset, agent harness, and evaluation code for full replicability at https://github.com/nomic-ai/aec-bench under an Apache 2 license.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: