次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

システムダイナミクスAIアシスタントの性能比較:クラウド vs ローカルLLM

原題: Benchmarking System Dynamics AI Assistants: Cloud Versus Local LLMs on CLD Extraction and Discussion
著者: Terry Leitch
公開日: 2026-04-20 | 分野: LLM AI システム ソフトウェアエンジニアリング インタラクション インタラクティブシステム データ分析 cs.AI cs.HC cs.LG

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • システムダイナミクスの因果ループ図抽出と対話型モデリング支援における、クラウドLLMとローカルLLMの性能を体系的に評価した。
  • ローカルLLMは因果ループ図抽出でクラウドLLMの中位性能に匹敵したが、長文コンテキストを要する対話タスクではメモリ制限により性能が低下した。
  • バックエンド(llama.cpp vs mlx_lm)の選択が量子化レベルよりも性能に大きく影響し、ローカルLLMの実行に関する実践的なガイドを提供した。

Abstract

We present a systematic evaluation of large language model families -- spanning both proprietary cloud APIs and locally-hosted open-source models -- on two purpose-built benchmarks for System Dynamics AI assistance: the textbf{CLD Leaderboard} (53 tests, structured causal loop diagram extraction) and the textbf{Discussion Leaderboard} (interactive model discussion, feedback explanation, and model building coaching). On CLD extraction, cloud models achieve 77--89% overall pass rates; the best local model reaches 77% (Kimi~K2.5~GGUF~Q3, zero-shot engine), matching mid-tier cloud performance. On Discussion, the best local models achieve 50--100% on model building steps and 47--75% on feedback explanation, but only 0--50% on error fixing -- a category dominated by long-context prompts that expose memory limits in local deployments. A central contribution of this paper is a systematic analysis of textit{model type effects} on performance: we compare reasoning vs. instruction-tuned architectures, GGUF (llama.cpp) vs. MLX (mlx_lm) backends, and quantization levels (Q3 / Q4_K_M / MLX-3bit / MLX-4bit / MLX-6bit) across the same underlying model families. We find that backend choice has larger practical impact than quantization level: mlx_lm does not enforce JSON schema constraints, requiring explicit prompt-level JSON instructions, while llama.cpp grammar-constrained sampling handles JSON reliably but causes indefinite generation on long-context prompts for dense models. We document the full parameter sweep ($t$, $p$, $k$) for all local models, cleaned timing data (stuck requests excluded), and a practitioner guide for running 671B--123B parameter models on Apple~Silicon.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事