CMU研制新一代智能工業(yè)機(jī)器人,通過觸摸來認(rèn)識這個世界

巫盼 8年前 (2017-06-29)

CMU的計算機(jī)團(tuán)隊通過讓其機(jī)器人通過觸覺反饋和試錯來學(xué)習(xí),力求打造觸覺、視覺結(jié)合處理和自主學(xué)習(xí)的新一代智能工業(yè)機(jī)器人。

我們都知道,在人工智能領(lǐng)域,要想實現(xiàn)對目標(biāo)的識別、跟蹤和測量,其中一項非常核心的技術(shù)就是計算機(jī)視覺。目前,國內(nèi)外有許多家公司和實驗室就在結(jié)合深度學(xué)習(xí)和計算機(jī)視覺來進(jìn)行深度研究與改進(jìn),提高機(jī)器動作的精度和強(qiáng)度。但是也正如行業(yè)內(nèi)大家所熟知的,無法結(jié)合機(jī)器的觸覺是機(jī)器人發(fā)展的一大制約。

CMU研制新一代智能工業(yè)機(jī)器人,通過觸摸來認(rèn)識這個世界

據(jù)悉,近日卡內(nèi)基梅隆大學(xué)(CMU)的計算機(jī)團(tuán)隊正在訓(xùn)練Baxter機(jī)器人進(jìn)行抓握訓(xùn)練,讓其通過觸覺反饋和試錯來學(xué)習(xí),研究出觸覺和視覺相結(jié)合的新一代智能工業(yè)機(jī)器人。

該系統(tǒng)使用類似于Kinect的3D攝像機(jī)。 Baxter收集的視覺和觸覺信息被發(fā)送到一個深層神經(jīng)網(wǎng)絡(luò),它與ImageNet中的圖像數(shù)據(jù)交叉輸入。加上觸摸過程的數(shù)據(jù)訓(xùn)練,機(jī)器人的識別精度比僅使用圖像數(shù)據(jù)訓(xùn)練的機(jī)器人提高了10%。

CMU研制新一代智能工業(yè)機(jī)器人,通過觸摸來認(rèn)識這個世界

實驗室助理Dhiraj Gandhi為大家演示了機(jī)器人在接觸熟悉與不熟悉的對象時作出的動作與反應(yīng):當(dāng)機(jī)器人識別出物體時,它牢牢抓住放入盒中,同時電腦上顯示的是微笑的表情;如果對象不熟悉,機(jī)器人會挪開手臂,并且會出現(xiàn)扭曲困惑的表情。

傳統(tǒng)的計算機(jī)視覺學(xué)習(xí)形式,主要是通過輸入數(shù)據(jù),經(jīng)過“監(jiān)督”學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)來識別對象,不同的是,CMU的機(jī)器人可以自己教自己。對此,Gandhi解釋說:“目前計算機(jī)視覺的核心就是你用大量目標(biāo)特征數(shù)據(jù)來訓(xùn)練,而圖像處理任務(wù)與機(jī)器識別這一動作任務(wù)之間是相互獨立的。現(xiàn)在我們想要的就是當(dāng)機(jī)器人與目標(biāo)對象交互時獲取的變化數(shù)據(jù)。通過這些數(shù)據(jù),訓(xùn)練機(jī)器去學(xué)習(xí)可以輔助完成視覺任務(wù)的功能。”

顯然,研究還處于初期階段,但具有一定的前景。未來,觸摸和視覺學(xué)習(xí)的結(jié)合可用于分類機(jī)器人,如ZenRobotics開發(fā)的機(jī)器人,可將垃圾與回收物品分開。當(dāng)然,該技術(shù)也可以應(yīng)用到人工智能領(lǐng)域的其他應(yīng)用方面。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動創(chuàng)新

分享到