AIDB Daily Papers
クラウドからエッジへ:ハードウェアアクセラレータ搭載シングルボードコンピュータでのLLM推論ベンチマーク
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究は、プライバシーや遅延の問題を解決するため、シングルボードコンピュータ上でLLM推論を実行する手法を提案した。
- 最新のハードウェアアクセラレータを搭載したIoT向けエッジプラットフォーム4種で、推論性能とハードウェア効率を多角的に評価した。
- NPUやGPUの活用が効果的であり、電力効率、デバイスサイズ、トークン処理能力のトレードオフを定量化し、実用的な指針を示した。
Abstract
Large language models (LLMs) are becoming increasingly capable at small parameter scales. At the same time, conventional cloud-centric deployment introduces challenges around data privacy, latency, and cost that are acute in operational technology and defence environments. Advances in model distillation, quantisation, and affordable edge accelerators now make local LLM inference on single-board computers feasible, but the high dimensionality of the configuration space makes identifying optimal deployments difficult without structured evaluation. Existing LLM-specific edge benchmarking efforts rely on CPU-only inference, poor coverage of genuine single-board computers, and generic evaluation tasks that lack multi-dimensional assessment of hardware effectiveness. This paper proposes a multi-dimensional benchmarking methodology that jointly evaluates inference performance and hardware efficiency across four IoT-suitable edge platform configurations testing single-board computers with the latest available hardware accelerators. Our results reveal the benefits of using hardware accelerators such as NPUs and GPUs, along with multi-dimensional evaluations quantifying the trade-offs between power efficiency, physical device size and token throughput; offering practical guidance for deploying generative AI in privacy-sensitive and connectivity-limited environments such as unmanned vehicles and portable, ruggedised operations.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: