對人類來說,我們在電影里常看到的僵尸和外星人可能并不是什么真正存在的威脅,但我們卻不能忽視另一種經常在電影里看到的反派人物,那就是有意識的機器人。他們的到來可能只是時間問題。但是,當真正的有意識機器人出現時,世界會變成什么樣呢?到那時,人類還有生存空間嗎?
近幾年,人工智能的研究領域在經歷著一場革命?,F在,人工智能系統(tǒng)可以在圍棋上勝過人類,在識別人臉,安全駕駛等領域都有非凡的成果。大多數研究人員認為,真正有意識的機器人(不只是運行固定程序程序,而是有情感和自我意識的機器)或許還有幾十年的時間就會出現。機器需要學習推理能力,和強大的泛化能力,才能學習更多的知識。只有機器擁有這樣的能力后,人工智能才能達到掌握意識所需的復雜程度。
但一些人認為,并不用幾十年那么久,我們或許很快就能看到有意識的機器人出現。
德克薩斯大學的計算機科學家賈斯汀哈特說:“人們認為自我意識將成為人工智能的終極游戲,而實際上,沒有任何的科學追求是從終極目標入手來進行研究的。”賈斯汀和其他研究人員已經在研究具有基本思想的機器人。他們設計了如同新生嬰兒一樣的機器人,機器人能夠學習理解自己的身體構造,看到新的事物會呀呀亂叫,而當人類碰到它時機器人會哭泣,這都像新生嬰兒的行為。這些機器人已經開始探索自己的世界。
機器人沒有內在的情感體驗,它們不會因為地板拖得干凈而自豪,也不會因為身體流過120伏特的電流而開心。但是,機器人現在可以學習一些類似人類擁有的品質,包括同理心、適應能力和進取心。
不再沉迷于創(chuàng)造很酷的機器人,研究人員開始研究擁有控制論(Cybernetic,控制論是研究各類系統(tǒng)的調節(jié)和控制規(guī)律的科學)系統(tǒng)的機器人,試圖解決機器學習系統(tǒng)長期以來的缺陷。機器學習系統(tǒng)或許功能很強大,但它們卻是不透明的。它們的工作原理就是將輸入關聯到輸出,這就像在“A”和“B”欄中做匹配連線一樣,人工智能系統(tǒng)基本記住了這些關聯關系,他們給出的答案背后沒有更深層次的邏輯。這一直是機器學習系統(tǒng)存在的問題。
人類是很難讀懂的物種。我們花了大量的時間來分析自己和他人,可以說,這是我們的意識思維在起作用。如果機器也有思想,它們可能就不會那么神秘了,如果我們想要了解機器,就可以直接問他們。
位于紐約州特洛伊的倫斯勒理工學院的人工智能研究人員SelmerBringsjord說,“如果我們能理解一些人類大腦意識的結構,我們就能夠讓機器學習一些有趣的能力。”盡管科幻小說會讓人類懼怕有意識的機器人,但其實,即使是暫時無意識的機器人,我們也需要小心謹慎,而有意識的機器人則可能會成為我們的盟友。
如今,自動駕駛汽車擁有一些最先進的人工智能系統(tǒng)。它們決定車輛駛向何方,決定何時剎車,通過持續(xù)的雷達和激光探測來收集數據,并將數據輸入到算法中。但自動駕駛技術希望在車輛駕駛時,車輛能自動演習和自主防御突發(fā)事故,這就是與意識相關的能力。
巴塞羅那龐貝大學的神經學家PaulVerschure說,“自動駕駛汽車需要推測出附近的自動駕駛車輛下一步的行為。”
為了展示這一內在原理,哥倫比亞大學的工程學教授HodLipson(HodLipson教授同時也是一本關于自動駕駛汽車的書的合著者)和韓國首爾世宗大學的kyung-joongKim進行了一個實驗,研發(fā)了一個“發(fā)瘋”的機器人司機。在實驗中,有一個小型的圓形機器人(大約相當于冰球的大小)按照自己的運動邏輯在一個環(huán)形軌道上移動。然后,這個“發(fā)瘋”的機器人司機總是要在第一個圓形機器人啟動時攔截它,因此“發(fā)瘋”機器人就無法按照固定的路線運動,它必須預測到第一個圓形機器人的運行軌跡。
通過模仿達爾文進化理論,Lipson和Kim設計了一種攔截策略。Lipson說:“實驗的機器人基本上已經發(fā)展了一個行為者的大腦,也許不夠完美,但已經足夠讓它預測對方的行為了。”
Lipson的團隊還設計了另外一個機器人,這個機器人可以對自己的身體構造進行學習理解。這是一只四足蜘蛛的機器人,它的大小約相當于一只大狼蛛的大小。當蜘蛛機器人啟動后,其內部程序沒有記錄任何關于自身的信息。Lipson說:“它不知道它的發(fā)動機是怎樣的構造,也不知道身體的運動邏輯是如何設計的。”但它有學習的能力,它能觀察到自己發(fā)生的所有動作。例如,它能觀察自己是如何操作某個馬達來讓一條腿彎曲的。Lipson說:“就像一個嬰兒一樣,嬰兒是會亂動的。”“它以一種隨機的方式移動馬達。”
四天后,這個蜘蛛機器人已經意識到它有四條“腿”(馬達),并弄清楚了如何協調和移動才能讓自己滑過地板。當Lipson卸掉其中一個馬達時,機器人能夠意識到自己現在只有三條腿,因此原來的行為不會再產生預期的效果。
Lipson說:“我認為這個機器人有一種非常原始的自我意識。”這是另一種類似人類的能力,是研究人員想要建立在人工智能的基礎上的。AlphaGo之所以能在圍棋之戰(zhàn)中脫穎而出,是因為人類研究人員引導機器贏得比賽。機器自己不能自己定義問題,因為定義問題通常是很困難的部分。
一位神經學家RyotaKanai和一家位于東京的創(chuàng)業(yè)公司的創(chuàng)始人即將發(fā)表一篇論文——“認知科學的趨勢”,他們在論文中討論了如何給機器內在的動力。在一次演示中,他和他的同事展示了在虛擬環(huán)境中駕駛一輛汽車Agent,Agent需要攀爬一座陡峭的山,而這座山太過陡峭,只有在助跑的情況下才能爬上去。Aagent收到命令要爬上山時,它會想出辦法。在接到這個命令之前,Agent就一直閑置著。
然后,Kanai的團隊給這些虛擬的Agent增加了“好奇心”機制。Agent勘測了山的地形,將登山視為一個待解決的問題,并且在沒有任何指示的情況下就找到了如何攀爬的方法。
Kanai說:“我們沒有給Agent設定任何目標。”“Agent只是在自己探索環(huán)境,通過對自身行為的后果做出預測,來了解自己的處境。”關鍵是要給機器人足夠的內在激勵,讓它們更好地解決問題,而不是讓它們選擇放棄,離開實驗室。機器可以像人類一樣固執(zhí)。JoschaBach是哈佛大學的人工智能研究員,他把虛擬機器人放進了“Minecraft”——Minecraft里堆滿了美味但有毒的蘑菇,Bach希望Agent能自己學會避免犯錯誤,如同在Minecraft里一樣,如果機器不知道避開有毒的蘑菇,就會吃下毒蘑菇而中毒。
Bach說:“如同人類一樣,此刻的行為對未來會造成什么影響,機器并不在乎。”他們可能只是覺得這些蘑菇非常好吃,所以必須向機器灌輸一種天生的厭惡感。從某種意義上說,機器必須學會價值觀,而不僅僅是理解目標。
除了自我意識和自我激勵之外,意識的一個關鍵功能是集中注意力。在人工智能研究領域,選擇性注意力一直是一個重要領域,AlphaGo的創(chuàng)造人谷歌DeepMind團隊在這一領域有深入研究。
“意識是一種注意力過濾器。”孟菲斯大學計算機科學教授斯坦利富蘭克林說到。在去年發(fā)表在生物學上的認知結構雜志上的一篇論文中,富蘭克林和他的同事們回顧了他們創(chuàng)造的一個名為LIDA的人工智能系統(tǒng),這一系統(tǒng)通過競爭機制來選擇出需要集中精力的地方,算法采納了20世紀80年代的神經學家BernardBaars所提出的方法。競爭過程中機器系統(tǒng)會觀察一些有趣的刺激物——響亮的、明亮的、奇異的刺激物,然后這些刺激物爭奪主導地位。在競爭中勝利的刺激物,決定了人們的精神集中在哪里,隨后通知機器系統(tǒng)的“大腦”,告知“大腦”注意力應該放在哪里,隨之告知更多的大腦功能,包括控制思考和運動的部分。感知、注意力和動作的循環(huán)每秒鐘重復5到10次。
LIDA的第一個版本是美國海軍的工作匹配服務器。它會閱讀郵件,注意力集中在切題的郵件上——涉及求職者的興趣、工作的難度和政府官僚機構的工作要求這一些郵件。
從那以后,富蘭克林的團隊就利用這個系統(tǒng)來模擬動物的大腦,特別是那些每次只專注于一件事的行為習慣。例如,LIDA和人類一樣容易出現一種奇怪的心理現象,即“注意力盲點(attentionblink)”——當某件事吸引了你的注意力時,你會在大約半秒的時間里忘記其他事情。這個認知盲點取決于很多因素,而LIDA則表現出類似人類的反應。
一位芬蘭的人工智能研究人員PenttiHaikonen,根據類似的原則建立了一個名為XCR-1的機器人。Haikonen認為,他創(chuàng)造的XCR-1能夠擁有真正的主觀體驗和基本的情感。
XCR-1機器人擁有聯想的能力,這與我們大腦中的神經元非常相似。當我們展示了給XCR-1機器人一個綠色球,并對它說出“綠色”這個詞,那么XCR-1機器人的視覺和聽覺模塊會做出反應,將看到的綠色球和“綠色”這個詞聯系起來。如果Haikonen再次說“綠色”,那么XCR-1機器人的聽覺模塊將會做出反應,通過記錄的聯系,視覺模塊也會“回憶”起來“綠色”對應的樣子,就如同它真正聽到了這個單詞,看到了它的顏色一樣。
相反,如果機器人看到了綠色,它的聽覺模塊會做出反應,哪怕它沒有真正“說出”這個詞。簡而言之,機器人會產生一種聯覺(synesthesia)。
Haikonen說:“如果我們看到一個球,我們可能會對自己說:喔,那是一個球!在那一刻,我們的感覺就如同我們真正聽到了這個詞一樣,但其實我們只是看到了它。”“xcr-1也是一樣的。”
當聽覺和視覺模塊發(fā)生沖突時,事情會變得有趣。例如,當視覺模塊看到綠色,而聽覺模塊聽到“藍色”時,如果這時是聽覺模塊占了上風,那么整個系統(tǒng)就會把注意力轉移到它聽到的單詞上——“藍色”,而忽略了它所看到的顏色——綠色。機器人有一種簡單的意識流,它由一種瞬間支配的知覺組成:“綠色”、“球”、“藍色”等等。當Haikonen把聽覺模塊連接到一個語音引擎時,機器人會自己默默對自己說出它所看到和感覺的一切。
Haikonen還將振動設為機器人的“痛點”,它可以搶占其他感官作為輸入,占據機器人的注意力。在一次演示中,Haikonen輕拍了機器人讓其針對,然后機器人就突然地說:“我受傷了”。
Haikonen說:“因為某些原因,有些人會受到情感上的困,對這些作品并不感冒,認為這是不好的機器人。”
基于早期的努力,研究人員將開發(fā)出更逼真的機器人。我們可以看到意識系統(tǒng)的連續(xù)統(tǒng)一體,就像自然界中存在的一樣,從單細胞生物、狗到黑猩猩,再到人類和其他物種。這項技術的逐步發(fā)展是好的,因為它給了我們時間來適應:未來有一天,我們不再是地球上唯一的先進生物。
在很長一段時間里,我們創(chuàng)造的人工智能機器很脆弱,與其說它們會威脅到人類,不如說是我們創(chuàng)造出來的新寵物。如何對待它們,將取決于我們是否意識到他們是有意識的,機器是否有能力忍受痛苦。
康涅狄格大學的哲學家蘇珊施耐德說:“我們之所以重視非人類的動物,是因為我們在他們身上看到了意識的存在,就像人類自己也是基于我們自己的意識存在的。”蘇珊施耐德研究人工智能的含義。事實上,她認為我們故意不去創(chuàng)造有意識的機器,以避免它所造成的道德困境。
施耐德說,“如果你在創(chuàng)造有意識的機器人系統(tǒng),讓它們?yōu)槲覀児ぷ鳎@就很像是在實行奴隸制度。”出于同樣的原因,如果我們不賦予先進的機器人感知能力,機器人對人類的威脅可能是更嚴重的,因為沒有意識的機器人不會自己思考,它們無法思考出任何理由要和人類站在同一立場,承認并珍視人類。
從我們目前所看到的情況來看,有意識的機器將會繼承人類的弱點。如果機器人必須預測其他機器人的行為,它們就會把彼此當作有組織的生物來對待。像我們一樣,他們可能會開始認識一些無生命的物體:雕塑動物、雕像和風。
去年,北卡羅來納大學的社會心理學家?guī)焯馗窭缀虳anielWegner在他們的“心靈俱樂部”中提出,這種本能是宗教的起源。Verschure說:“我期待電影中出現機器人自己發(fā)展的宗教,因為我們已經為它們設計了意識偏好,讓它們成為社會的一部分。”“但他們的意識偏好可能先起作用了。”
這些機器將大大超出我們解決問題的能力,但并非所有事情都是可以解決的問題。他們可能會沉迷于自己的意識體驗中,隨著機器人感官感知范圍的擴大,他們會看到一些人類并不相信的東西。
Lipson說:“我不認為未來的機器人物種會像我們想的那樣冷酷無情。”“他們可能會有我們永遠無法理解的音樂和詩歌。”