AIDB Daily Papers
LLMは注意を理解できるか?マルチモーダルな教室での行動をゼロショット分析
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- プライバシー保護に配慮した教室動画分析パイプラインを提案し、学生の注意に関する洞察を抽出する。
- 個人を特定できる映像を保存せず、姿勢と視線データのみを使用し、LLMによる行動分析を可能にした点が新しい。
- LLMはマルチモーダルな行動理解に有望だが、教室レイアウトに関する空間推論には課題が残ることを明らかにした。
Abstract
Understanding student engagement usually requires time-consuming manual observation or invasive recording that raises privacy concerns. We present a privacy-preserving pipeline that analyzes classroom videos to extract insights about student attention, without storing any identifiable footage. Our system runs on a single GPU, using OpenPose for skeletal extraction and Gaze-LLE for visual attention estimation. Original video frames are deleted immediately after pose extraction, thus only geometric coordinates (stored as JSON) are retained, ensuring compliance with FERPA. The extracted pose and gaze data is processed by QwQ-32B-Reasoning, which performs zero-shot analysis of student behavior across lecture segments. Instructors access results through a web dashboard featuring attention heatmaps and behavioral summaries. Our preliminary findings suggest that LLMs may show promise for multimodal behavior understanding, although they still struggle with spatial reasoning about classroom layouts. We discuss these limitations and outline directions for improving LLM spatial comprehension in educational analytics contexts.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: