次回の更新記事:「AIっぽくて白ける」現象の正体(公開予定日:2026年05月01日)
AIDB Daily Papers

AEC-Bench:建築・エンジニアリング・建設分野におけるエージェントシステムのマルチモーダルベンチマーク

原題: AEC-Bench: A Multimodal Benchmark for Agentic Systems in Architecture, Engineering, and Construction
著者: Harsh Mankodiya, Chase Gallik, Theodoros Galanos, Andriy Mulyar
公開日: 2026-03-31 | 分野: マルチモーダル データセット ベンチマーク 推論 AI エージェント オープンソース 評価 プロジェクトマネジメント システム エンジニアリング GitHub 建築 建設 図面

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • AEC分野の実世界タスクでエージェントシステムを評価するマルチモーダルベンチマークAEC-Benchを構築した。
  • 図面理解、シート間の推論、プロジェクトレベルの連携を要するタスクを網羅し、分野特化型基盤モデルの性能向上に貢献する。
  • Claude CodeやCodexなど、基盤モデルの性能を一様に向上させるツールとハーネス設計技術を特定した。

Abstract

The AEC-Bench is a multimodal benchmark for evaluating agentic systems on real-world tasks in the Architecture, Engineering, and Construction (AEC) domain. The benchmark covers tasks requiring drawing understanding, cross-sheet reasoning, and construction project-level coordination. This report describes the benchmark motivation, dataset taxonomy, evaluation protocol, and baseline results across several domain-specific foundation model harnesses. We use AEC-Bench to identify consistent tools and harness design techniques that uniformly improve performance across foundation models in their own base harnesses, such as Claude Code and Codex. We openly release our benchmark dataset, agent harness, and evaluation code for full replicability at https://github.com/nomic-ai/aec-bench under an Apache 2 license.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事