AIDB Daily Papers
視覚障碍者向けVR体験を支援するLLMガイド:利用者の行動とデザインへの示唆
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 視覚障碍者(BLV)がVR空間を円滑に利用できるよう、大規模言語モデル(LLM)を活用したAIガイドを開発し、その利用実態を調査しました。
- VR空間でのBLVユーザーのナビゲーションを支援するAIガイドは、社会的インタラクションの文脈で、ツール以上の役割を果たす可能性を示唆します。
- 実験の結果、参加者はAIガイドを状況に応じて使い分け、他者との交流を促すなど、ガイドとの間に多様な関係性を構築することが明らかになりました。
Abstract
As social virtual reality (VR) grows more popular, addressing accessibility for blind and low vision (BLV) users is increasingly critical. Researchers have proposed an AI "sighted guide" to help users navigate VR and answer their questions, but it has not been studied with users. To address this gap, we developed a large language model (LLM)-powered guide and studied its use with 16 BLV participants in virtual environments with confederates posing as other users. We found that when alone, participants treated the guide as a tool, but treated it companionably around others, giving it nicknames, rationalizing its mistakes with its appearance, and encouraging confederate-guide interaction. Our work furthers understanding of guides as a versatile method for VR accessibility and presents design recommendations for future guides.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: