次回の更新記事:コード変更の瞬間にバグを自動検知するテスト生成をL…(公開予定日:2026年02月11日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

自律学習ロボットハンド、未知の操作も高精度で成功

ロボティクス(ロボット制御、embodied AI、マニピュレーション)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

視覚言語モデルを移動型ロボットハンドに搭載し自律学習を実現したとの報告がされています。

現実のオープンワールドで学びながらタスクをこなしていくことを可能にする技術とのこと。

ハードウェアの仕様も公開されています。

“Adaptive Mobile Manipulation for Articulated Objects In the Open World”より

カーネギーメロン大学による発表です。

■本研究の狙い
– ロボットが実世界で勝手に学び適応する
– ドアや引き出しなどで細かい操作ができる
– 人間の介入なしで実用的なレベルに成長する

■技術的フレームワーク
– 視覚言語モデルで環境認識とタスク理解を行う
– 深層強化学習と進化アルゴリズムを組み合わせる
– タスクごとに独自の行動計画を立てる

■実験と結果
– 様々な異なる建物でテスト
– 12ケースで訓練、8ケースでテスト
– 未知の操作でも成功率が95%
(従来は約50%)
– 人間の介入なしで、視覚言語モデルからの報酬を利用して自律学習が可能でなった

今後、本フレームワークを他の環境でも試していきたいとされています。実用化に向けては、安全性やコストパフォーマンスを高めていく必要があるとのことです。

📄 参照論文

参照情報:Adaptive Mobile Manipulation for Articulated Objects In the Open World

著者: 著者:Haoyu Xiong, Russell Mendonca, Kenneth Shaw, Deepak Pathak

関連記事