AIDB Daily Papers
LLM支援による検査可能なマルチモーダル感情データアノテーションツールキット
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- マルチモーダル感情認識のための、イベント中心の検査可能なアノテーションツールキットを開発した。
- 動的でずれやすい手がかりに対し、LLMを活用することで、詳細かつ根拠に基づいたアノテーションを効率化する。
- ツールキットは、異種記録の処理・可視化、イベント検出、LLMによるアノテーション下書き生成を行い、VR感情記録で実証した。
Abstract
Multimodal Emotion Recognition (MER) increasingly depends on fine grained, evidence grounded annotations, yet inspection and label construction are hard to scale when cues are dynamic and misaligned across modalities. We present an LLM-assisted toolkit that supports multimodal emotion data annotation through an inspectable, event centered workflow. The toolkit preprocesses and aligns heterogeneous recordings, visualizes all modalities on an interactive shared timeline, and renders structured signals as video tracks for cross modal consistency checks. It then detects candidate events and packages synchronized keyframes and time windows as event packets with traceable pointers to the source data. Finally, the toolkit integrates an LLM with modality specific tools and prompt templates to draft structured annotations for analyst verification and editing. We demonstrate the workflow on multimodal VR emotion recordings with representative examples.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: