AIDB Daily Papers
見て、記号化し、行動する:空間表現によるVLMの接地でゲームプレイを向上
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 視覚言語モデル(VLM)に視覚情報と記号表現を同時に与え、インタラクティブ環境での性能向上を検証した。
- 記号接地はVLMの性能を向上させるが、自己抽出記号の精度がモデル能力とシーン複雑性に依存することが判明した。
- 記号抽出の信頼性が低い場合、VLMの性能は低下し、認識精度がVLMエージェントのボトルネックとなることを示した。
Abstract
Vision-Language Models (VLMs) excel at describing visual scenes, yet struggle to translate perception into precise, grounded actions. We investigate whether providing VLMs with both the visual frame and the symbolic representation of the scene can improve their performance in interactive environments. We evaluate three state-of-the-art VLMs across Atari games, VizDoom, and AI2-THOR, comparing frame-only, frame with self-extracted symbols, frame with ground-truth symbols, and symbol-only pipelines. Our results indicate that all models benefit when the symbolic information is accurate. However, when VLMs extract symbols themselves, performance becomes dependent on model capability and scene complexity. We further investigate how accurately VLMs can extract symbolic information from visual inputs and how noise in these symbols affects decision-making and gameplay performance. Our findings reveal that symbolic grounding is beneficial in VLMs only when symbol extraction is reliable, and highlight perception quality as a central bottleneck for future VLM-based agents.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: