次回の更新記事:AIエージェントで論文内容を再現するワークフロー(…(公開予定日:2026年04月30日)
AIDB Daily Papers

視線から導きへ:マルチモーダル視線認識AIアシスタントによるユーザーの認知ニーズの解釈と適応

原題: From Gaze to Guidance: Interpreting and Adapting to Users' Cognitive Needs with Multimodal Gaze-Aware AI Assistants
著者: Valdemar Danry, Javier Hernandez, Andrew Wilson, Pattie Maes, Judith Amores
公開日: 2026-04-09 | 分野: LLM マルチモーダル AI 認知 質問応答 視覚 ユーザ 自然言語処理 深層学習 ヒューマンコンピュータインタラクション インタラクション

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • ユーザーの困難点を特定し、フォローアップ支援を行う視線認識AIアシスタントを提示。
  • 視線情報から認知ニーズを推測し、より正確でパーソナライズされた支援を実現する点が新しい。
  • 視線認識アシスタントは、ユーザーの記憶力と効率的な対話の改善に貢献した。

Abstract

Current LLM assistants are powerful at answering questions, but they have limited access to the behavioral context that reveals when and where a user is struggling. We present a gaze-grounded multimodal LLM assistant that uses egocentric video with gaze overlays to identify likely points of difficulty and target follow-up retrospective assistance. We instantiate this vision in a controlled study (n=36) comparing the gaze-aware AI assistant to a text-only LLM assistant. Compared to a conventional LLM assistant, the gaze-aware assistant was rated as significantly more accurate and personalized in its assessments of users' reading behavior and significantly improved people's ability to recall information. Users spoke significantly fewer words with the gaze-aware assistant, indicating more efficient interactions. Qualitative results underscored both perceived benefits in comprehension and challenges when interpretations of gaze behaviors were inaccurate. Our findings suggest that gaze-aware LLM assistants can reason about cognitive needs to improve cognitive outcomes of users.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事