許多研討人工智慧(AI)的公司都在透過深度學(xué)習(xí)來教會(huì)機(jī)器人辨識(shí)圖像,卡內(nèi)基美隆大學(xué)(CMU)的研討團(tuán)隊(duì)則選了別的一種辦法,他們試著經(jīng)驗(yàn)機(jī)器人透過觸摸來認(rèn)知世界,就像嬰兒一樣。
TechCrunch 報(bào)導(dǎo),在每天 8 小時(shí)實(shí)驗(yàn)時(shí)期,這個(gè)名為「Baxter」的機(jī)器人只需一個(gè)任務(wù)要進(jìn)行──從桌上隨機(jī)抓取物品,它的動(dòng)作緩慢而笨拙,即使如此,這一個(gè)月時(shí)期也現(xiàn)已進(jìn)行了 5 萬次的抓取動(dòng)作,Baxter 正在透過觸覺反應(yīng)和檢驗(yàn)過錯(cuò)來學(xué)習(xí)。
研討團(tuán)隊(duì)在宣布的論文中,說明了他們怎樣透過讓機(jī)器人反覆觸摸物品,來進(jìn)步對物品的認(rèn)知,「以嬰兒來說,他們透過用手推、戳物品、把東西放進(jìn)嘴裡或扔出去來學(xué)會(huì)認(rèn)知表徵,我們也希望到達(dá)這么的方針,所以在 Baxter 的程式平臺(tái)中建構(gòu)了類似的方式,讓它們在桌面環(huán)境上戳、抓取并查詢物品?!?/p>
為了闡明學(xué)習(xí)觸摸的重要性,研討室助理 Dhiraj Gandhi 用 1970 時(shí)代中期英國的一項(xiàng)實(shí)驗(yàn)做為比方,其時(shí)研討人員對兩隻貓進(jìn)行認(rèn)知實(shí)驗(yàn),其間一隻就像平常一樣日子、與世界觸摸,另一隻貓則只可以觀看,不被容許觸摸物品,畢竟只需被容許與環(huán)境互動(dòng)的學(xué)會(huì)爬行,只能查詢的不能做出一樣做法。
而在實(shí)驗(yàn)中,Baxter 逐漸地展現(xiàn)出對物品認(rèn)知的進(jìn)步,當(dāng)機(jī)器人認(rèn)出了解的物品時(shí),平板閃現(xiàn)螢?zāi)簧蠒?huì)暴露「微笑」,并且抓取物品放入適宜的籃子;如果對物品不了解,螢?zāi)簧蟿t會(huì)暴露「利誘」的表情──研討人員并不擔(dān)憂,他們信任沒有什麼是別的 5 萬次抓取練習(xí)學(xué)習(xí)不了的。
這項(xiàng)研討改變了傳統(tǒng)的機(jī)器視覺學(xué)習(xí)方式,不同于以往系統(tǒng)透過現(xiàn)已輸入的標(biāo)籤去區(qū)分、尋覓物品,Baxter 是透過觸摸來自我學(xué)習(xí)認(rèn)知,Gandhi 說明,以前圖像和標(biāo)籤之間并沒有互動(dòng),在視覺系統(tǒng)中只需被逼數(shù)據(jù)可以收集。
「我們想要的是與物品時(shí)可以取得活動(dòng)的數(shù)據(jù),并透過這些學(xué)習(xí)對別的視覺任務(wù)有用的功用。」
Baxter 的系統(tǒng)中有著類似 Kinect 的 3D 鏡頭,將收集到的視覺與觸覺音訊發(fā)送到深層的神經(jīng)網(wǎng)路,并在 ImageNet 中與圖像穿插參看。團(tuán)隊(duì)在其間意外發(fā)現(xiàn),收集的觸摸數(shù)據(jù)讓 Baxter 的辨識(shí)精準(zhǔn)度,較別的只運(yùn)用圖像辨識(shí)的機(jī)器人高出 10%,團(tuán)隊(duì)認(rèn)為這十分鼓舞人心。
儘管如今研討還處于前期時(shí)期,但團(tuán)隊(duì)十分看好將來的展開,Gandhi 標(biāo)明,他認(rèn)為聯(lián)系視覺與觸摸學(xué)習(xí)的機(jī)器人可以用于揀選分類,就像 ZenRobotics 開發(fā)的類型,將來能為廢物進(jìn)行分類回收,這在實(shí)際中是一個(gè)十分大的應(yīng)戰(zhàn),「當(dāng)然,我們?nèi)缃襁€在嬰兒學(xué)步呢?!?/p>