次回の更新記事:研究者たちがAIエージェントのセキュリティを本気で…(公開予定日:2026年04月11日)
AIDB Daily Papers

VisionClaw:スマートグラスによる常時起動AIエージェント

原題: VisionClaw: Always-On AI Agents through Smart Glasses
著者: Xiaoan Liu, DaeHo Lee, Eric J Gonzalez, Mar Gonzalez-Franco, Ryo Suzuki
公開日: 2026-04-03 | 分野: コンピュータビジョン 機械学習 AI エージェント プロンプト インタフェース IoT ユーザ タスク モバイル 深層学習 拡張現実 ヒューマンコンピュータインタラクション スマートグラス ウェアラブル

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • VisionClawは、視覚認識とタスク実行を統合したウェアラブルAIエージェントの研究。
  • Meta Ray-Banで動作し、現実世界のコンテキストを認識、音声でタスクを開始・委譲可能にする点が新しい。
  • 実験の結果、タスク完了時間の短縮やインタラクションの効率化が示され、新たなウェアラブルAIの可能性を示す。

Abstract

We present VisionClaw, an always-on wearable AI agent that integrates live egocentric perception with agentic task execution. Running on Meta Ray-Ban smart glasses, VisionClaw continuously perceives real-world context and enables in-situ, speech-driven action initiation and delegation via OpenClaw AI agents. Therefore, users can directly execute tasks through the smart glasses, such as adding real-world objects to an Amazon cart, generating notes from physical documents, receiving meeting briefings on the go, creating events from posters, or controlling IoT devices. We evaluate VisionClaw through a controlled laboratory study (N=12) and a longitudinal deployment study (N=5). Results show that integrating perception and execution enables faster task completion and reduces interaction overhead compared to non-always-on and non-agent baselines. Beyond performance gains, deployment findings reveal a shift in interaction: tasks are initiated opportunistically during ongoing activities, and execution is increasingly delegated rather than manually controlled. These results suggest a new paradigm for wearable AI agents, where perception and action are continuously coupled to support situated, hands-free interaction.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事