隨著人工智能的不斷發(fā)展,智能語音機器人越來越受到歡迎。但眼下,F(xiàn)acebook已經(jīng)不滿足于研發(fā)一款可以聊天的智能語音助手,而是要訓練機器人與人類進行談判。
Facebook人工智能研究所(Facebook Artificial Intelligence Research,簡稱FAIR)的研究人員已經(jīng)創(chuàng)建了人工智能模型,它們被賦予了與人類談判的能力,可以與人討價還價。
目前FAIR的研究人員已經(jīng)開放了該模型的源代碼,并發(fā)表論文,介紹了該機器人所具有的談判能力。在論文中,研究人員表示,通過大量的訓練,對于具有不同目標的對話機器人,已經(jīng)可以與其他機器人或人類進行從開始到結(jié)束的談判,并最終達成一致結(jié)果和目標。
研究人員指出,現(xiàn)實生活中人們經(jīng)常需要面對的“討價還價”就是最常見的一種談判行為。他們從這一行為模式入手,開始教機器人如何分配物品,譬如五本書、三頂帽子、兩個球等等。每一場談判被限定在10次對話之內(nèi),如果10次對話結(jié)束后,沒有達成共識,那么雙方都不能得到物品。
為了達到訓練效果和進行大規(guī)模的定量評估,F(xiàn)AIR團隊收集了一系列人與人之間討價還價的記錄供機器學習。這些案例詳細記錄了人們給一組物品定價并進行分配的過程。然后研究人員建立了一個遞歸的神經(jīng)網(wǎng)絡,通過教它模仿人們的行為來學會談判。
工程師們還利用機器人與機器人的對話來改善學習結(jié)果,方法是讓一個機器人生成數(shù)據(jù)去“愚弄”另一個機器人。這個場景需要機器人與另一方建立對話模型,雙方間就交易展開談判,從而預判出對方對特定報價的反應,而采取具體應對措施,而非簡單的模仿。在訓練過程中,研究人員很快發(fā)現(xiàn),機器人學會了一些談判策略,比如故意強調(diào)一些低價的物品,假裝讓對方認為該物品擁有更高的價值。
FAIR團隊的工作人員表示,他們訓練機器人的目的是教會他們防止做出不好的決策,而不是每次都作出最優(yōu)的選擇。“就像你用日歷提醒自己開會,是為了保證會議能如期參加,而不是為了選在最好的時間開會。”工作人員稱。
在2016年的開發(fā)者大會上,F(xiàn)acebook的創(chuàng)始人兼首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)就像外界介紹過類似的應用場景,在這個場景中,人們通過機器人與企業(yè)互動,例如,訂購產(chǎn)品或獲得客戶服務幫助。
不過目前,F(xiàn)AIR還沒有深入研究什么這種機器人的討價還價能力可能適用于哪些應用軟件,也沒有表示這種能力是否會在Facebook的產(chǎn)品中出現(xiàn)。FAIR在論文中指出,辯論、對話和談判的能力對進一步開發(fā)并提升聊天機器人是非常重要的,訓練機器人學會談判過程中的所有重要步驟都是打造個性化數(shù)字助理的關鍵。