五感の一つである”触覚”における50,000件以上の言語データで、ロボットに「さわる感覚」を教える取り組みが行われています。
ものの形や触れた場所、力の強さなどを言葉と結びつけることで、たとえば「小さな丸い物体の中央を軽く押した」といった細かい説明ができるようになるとのこと。
また、
触った感覚をもとに「こう動かしたほうがいい」といった判断もできるようになります。
果実のように壊れやすい物を扱うときに、「もう少し力を弱めよう」「少し下にずらそう」といった動きを、自分で考えて行えるとのこと。
なお、今回開発されたAIは仮想シミュレーションだけでなく実機でも使用可能であることが報告されています。
見る・聞く・話すに続いて、触れて感じて考える。またひとつ新しい力がロボットにも少しずつ備わっていくことを知らせる事例です。
📄 参照論文
CLTP: Contrastive Language-Tactile Pre-training for 3D Contact Geometry Understanding
所属: Institute of Automation Chinese Academy of Sciences, Beihang University, Beijing University of Posts and Telecommunications