一篇論文指出,對(duì)機(jī)器人進(jìn)行監(jiān)管是極為困難的,而跟著人工智能的進(jìn)一步廣泛,這也將成為一種越來越大的社會(huì)疑問。
為何機(jī)器人和人工智能將會(huì)難與管控?詳細(xì)要素有三個(gè):
疑問之一:機(jī)器人和人工智能的多元性
關(guān)于在人工智能監(jiān)管方面我們正在面臨的疑問,“隨機(jī)暗網(wǎng)購物者”的出現(xiàn)便是一個(gè)例子。
2014年,一組來自瑞士的藝術(shù)家構(gòu)建了一個(gè)人工智能,他們給了這個(gè)人工智能每周100比特幣的核算,并對(duì)其進(jìn)行編程,使得人工智能能夠在Agora(一個(gè)暗網(wǎng)上的在線商場(chǎng),購物者能夠在上面收購到毒品以及其他一些違禁品)上隨機(jī)收購產(chǎn)品。
終究,這個(gè)被命名為“隨機(jī)暗網(wǎng)購物者”的人工智能買到了搖頭丸、匈牙利護(hù)照、冒牌迪賽牛仔褲、帶有蔭蔽攝像頭的棒球帽、開了洞能夠存放現(xiàn)金的雪碧罐、卷煙、耐克運(yùn)動(dòng)鞋以及一套指環(huán)王電子書……
因?yàn)椴缓戏ㄊ召徸龇?,瑞士差人起先沒收了這個(gè)機(jī)器人以及它所收購的物品,但后來又把東西還了回去(除了毒品)——而那些對(duì)此事負(fù)有責(zé)任的藝術(shù)家則并沒有遭到指控。
在這個(gè)案例中,雖然機(jī)器人有一個(gè)特定的目的,但構(gòu)成其不合法做法的初衷卻是無害且偶爾的,因此警方?jīng)]有提出指控。
但不難想象,日后可能會(huì)有人帶著更為不光彩的主意,運(yùn)用人工智能做一樣的作業(yè)。
這便是疑問地點(diǎn)。“人工智能難以預(yù)測(cè)和多元化的特征讓有關(guān)的法則編纂變得更為凌亂,假設(shè)管得太寬,很可能會(huì)無形之中阻撓立異的步伐;而假設(shè)管得不可,極為有限的維護(hù)又會(huì)失掉意義。”研究者們寫道。
疑問之二:透明度
運(yùn)用神經(jīng)網(wǎng)絡(luò)來創(chuàng)建人工智能能夠讓它非常好、更快地學(xué)習(xí),但這么做意味著,你將不會(huì)理解人工智能為何做出這些作業(yè)。
如今,為了讓人工智能能夠完結(jié)相似圖像分析這種凌亂使命,運(yùn)用神經(jīng)網(wǎng)絡(luò)是一種非常成功的戰(zhàn)略——可是,這種成功卻讓對(duì)人工智能做法的監(jiān)管變得更為困難,因?yàn)檫@種“黑箱”正在越來越盛行。
假設(shè)你不能看清“隨機(jī)暗網(wǎng)購物者”在做的終究是什么作業(yè),那么判定其是不是有害就變得簡(jiǎn)直不可能了。
疑問之三:結(jié)構(gòu)
“不管包括在內(nèi)的硬件、軟件和數(shù)據(jù)怎樣混合在一起,關(guān)于公平性、透明度、可解說性和責(zé)任承擔(dān)方面的關(guān)心都是對(duì)等的,它們起源一樣,也應(yīng)該被一起處理。”研究者們說。
我們更傾向于將機(jī)器人和人工智能視為不一樣的實(shí)體,但跟著人臉辨認(rèn)這類軟件不斷添加地被機(jī)器人差人所運(yùn)用,二者之間的鴻溝正變得不再清楚。假設(shè)人臉辨認(rèn)軟件帶有種族主義成見,我們就能創(chuàng)造出種族主義機(jī)器人差人,這意味著,我們將不得不對(duì)運(yùn)用人工智能的機(jī)器人進(jìn)行監(jiān)管。
而假設(shè)人工智能也能締造人工智能——好像谷歌在本年I/O大會(huì)上展示的一樣——作業(yè)將變得更為困難。
終究,要處理這一疑問,需要極點(diǎn)精確的管控方法,以及能夠?qū)谙湎到y(tǒng)進(jìn)行解說的方法,而這些我們?nèi)缃穸歼€未能做到。研究者們?cè)陉愂鲋姓f:“民間關(guān)于機(jī)器人的法則選擇也仍在極力建立更為慎重、精確的問責(zé)制度。”而跟著人工智能的進(jìn)一步鋪開,疑問將會(huì)變得更為嚴(yán)重。