近日,加州大學柏克萊分校電氣工程與電腦科學系助理教授、同時也是該校機器人人工智慧與學習實驗室(Robotic Artificial Intelligence and Learning Lab)負責人的Sergey Levine與其他研究者及科學家,在arxiv.org上連續發表兩篇以機器人觸覺(the sense of touch)為主題的研究,他們提出了視覺+觸覺的跨模態識別系統,讓機器人用摸的就能辨識物體,接著又開發出一個以觸覺為基礎的控制模型,讓機器手可以執行複雜的任務,像是把小球推到用戶指定的位置。
在《Learning to Identify Object Instances by Touch: Tactile Recognition via Multimodal Matching》研究中,他們指出,許多關於機器人感知的研究都集中在視覺模態上。視覺提供了對場景的全域觀察,在廣泛的場景下很有用處,不過,在機器人操控領域,單靠視覺有時是不夠的,在光線不足或遮擋的情況下,就很難識別出物體,觸覺將提供機器人另一個識別物體的機制。
另一篇論文《Manipulation by Feel: Touch-Based Control with Deep Predictive Models》則是上述研究的延伸,利用配置GelSight觸覺感測器的機器人操控球,進行無監督的自主學習,進而開發出一個基於觸覺的控制模型,並且利用該觸覺預測模型,執行3個複雜的觸覺控制任務,包括將物體重新推移到指定位置、懂得操作遊戲搖杆、把一個具有20個面的骰子推到指定面。