AlphaGo打敗柯潔和李世石后,人們開始擔心:人工智能是否會取代人類?無論是《機械公敵》,還是《終結者》,都描述了人工智能與人類大戰的故事。人工智能究竟能有多聰明?他們會欺騙人類甚至取代人類嗎?在第四屆中國機器人峰會上,美國機器人界”攝政“教授,機器人之父Ronald C.Arkin就這一問題展開了深入的討論。讓我們再次回顧這個報告,深度剖析人造良知與人工智能。
隨著人工智能的發展,會造出能夠欺騙的機器人嗎?是世界末日?還是美好未來?被譽為美國機器人界”攝政“教授、”人造良知“機器人之父的美國佐治亞理工移動機器人實驗室主任、電子計算機學院首席教授Ronald C.Arkin,以多年的研究經驗在第四屆中國機器人峰會中深度闡釋了機器人欺騙的利弊與研究現狀,讓我們聆聽Arkin教授的精彩演講。
為什么要有欺騙
欺騙很重要。它不僅僅對人際關系重要,對自然界中的生物也很重要。許多不同的物種大多數都會欺騙,因為這是存活的先決條件,需要它來逃避偵測,需要它來抓住獵物,或需要欺騙找到優秀配偶。
其他非特定的情況下,欺騙可能不是最好的方式,但它有不同的考慮,一個關鍵的事實是,真正表明它們的高智能,某種程度上必須變得更加聰明。圖靈測試本身就是一個欺騙。
自然界有這種欺騙的例子:當獵食者來襲時,母鳥會佯裝翅膀斷了,那么獵食者就會試圖攻擊母鳥,而不去追尋鳥窩中的蛋,這樣就能保護它的鳥窩。
你可以欺騙方式讓孩子吃蔬菜,這是一種更具創造性的辦法,這種謊言是美好的。事實上它還能讓人們喜歡你,這也是很好的社會智慧,野獸般直白不是必要的與人相處方式。
你希望機器人對你像野獸一般誠實嗎?或者像人的行為具有社交欺詐性嗎?一個非常重要且有用的例子,電影中機器人Tars非常酷,宇航員問Tars誠實指數是多少,機器人說有90%,宇航員問90%嗎?
機器人說,絕對的誠實與情感動物溝通時,并不是最能交流和安全的形式,這十分正確,所以宇航員說我們會信個90%。其實這與某些方面的研究聯系起來,我們也能做得更好,可借此調整機器人的誠實等級。
研究機器人欺詐也是非常有意思的工作。用評估表來展示觀念、領導能力、年齡、食物來源方式等,另一邊有像石頭、剪刀、布這樣的機器人騙子,事實上這本是人類擅長的,這些機器人很聰明會用來欺騙。
在軍事中也用到欺騙:孫子說“兵者,詭道也”。馬基雅維利的政治觀點也說,雖然欺騙在其他事情上是可憎的,但在戰爭中卻是值得稱贊和光榮的。
回溯歷史,各種宗教傳說都有一些欺詐,這些故事以不同目的永遠留存下來。這種“戰爭恐懼欺騙”條令,會讓士兵知曉這在中國軍隊中用“兵不厭詐”。
我們通過“相互依賴理論”方法,做了個怎么讓機器人相信人的研究。一個好的指令是會告訴你,欺騙他人首要做法就是獲得信任,交流時標記好誰欺騙人,誰欺騙機器人。
當我們都需要這種特別的資源時,欺騙在其中就扮演了一個重要的角色。然后有兩件我們不得不做的事情,一個是欺騙,另一個是怎么去欺騙。
你必須選擇一個時機,使用這種沖突依賴理論,能幫助我們去影射這樣一塊區域,這里是非常強大的依賴結果。當然如果這個區域非常小的話,機器人就不太會欺騙。如果這個區域很大,就會有更多欺詐。所以你必須有這樣調解的能力,讓機器人或者相應的代理做到,可見沖突和依賴是必須存在的。所以神經系統上的識別要求是,用這套獨特的方法影射游戲理論等,我們進行了“伙伴建模”。
這個理論再建模后,提醒我們在信任中的決定性作用。換句話說,我可以信任你,因為我知道你是可信任的。同樣地,一旦我得到了你的信任。在特別的事例中我就可以欺騙你。這是非常有趣的延伸。
你不能欺騙沒有傳感器機器人, 因為它在特殊的事例中,無法說出欺騙有什么問題。我們發現其實會有更多的機會,讓傳感器之間也出現分歧。我同意是有欺騙成功的概率,你的合作伙伴模型做的越好, 欺騙成功的機率會越高。
我們在國際機器人雜志上,發表了這樣的論文,我們展示了相互依存的空間位置,使我們了解如何以及何時,使用欺騙行為并且將其做好。
我們這個實驗結果不能完全代表,機器人和欺騙的末端信息,且結果初步表明所描述的技術和算法。可用于機器人制造中的欺騙行為,還需要更多的心理學有效證據,來證實這一假設,這個其實相對來說比較謙虛了。
并不是所有人都同意這個實驗結果,例如他們說佐治亞理工的這項研究,做了一個非常非常糟糕的決定,他們教會了機器人如何欺騙,例如當機器起來反抗人類以及機器人末世來臨的時候,我們將會期望Ronald Arkin和Alan Wanger不曾提出這個想法。他們并不開心,我們告訴了機器人如何欺騙,好像世界就要末日了。
還有另外一篇說我們的文章,說有人教導機器人如何撒謊,說Ronald Arkin和Alan Wanger注定是兩個聲名狼藉的名字;這兩來自佐治亞理工的人的論文,詳盡地描述了他們的愚蠢,他們教導機器人如何捉迷藏的行為。哇,他們都不太開心!還有人說在瘋狂研究者的幫助下,機器人能欺騙人類了,我很好奇“crazed boffins”中文是什么意思?
不過不是所有人都認為這是一個糟糕的主意,時代雜志給出了公平的觀點,評價這是年度50大最佳發明之一,這只是一個簡單的實驗,卻得到了這樣的評價。
雜志說這是唯一一個擺脫束縛的新類科學家,他們這些探索機器人心理的理論,甚至能告訴我們一些關于我們自己的東西。
任何支持心理理論和分解理論的外部行為比例的計算代碼,都可以幫助理解人類思維中正在發生的事情。最后有些人理解了,他們說這是一件非常棒的事情,也有人認為我們會被全部殺死,我們會繼續研究欺騙,盡管有人認為這會讓自我毀滅。
我們把機器人系統放入實驗中獲得大量的數據,試圖展現人類控制機器人做法價值。有趣的是人們喜歡松鼠欺騙,但每個人都憎恨人類的欺騙行為,如果我們有基于松鼠的機器人,你會同意有一款可愛的松鼠機器人。
還有我一個學生的論文,叫“他人定位的機器人欺騙”。這種欺騙對你來說是好的,我舉一個典型的例子,當我的妻子問她今晚看起來怎么樣,我甚至不用思考,親愛的,你今晚很漂亮,可能我不這么想。
在機器人系統中運用犯罪學模型,推動他們的社交活動。我們希望能把它擴大成三個元素:動機、方法、機會。方法和機會之前已經講過了,包括怎么樣做、什么時候做。
在這兒動機必須是敏感緊張的,這種情況下“我真的想要做這個”,她沒有使它成為可能,通過遺漏確認欺騙,通過委托欺騙你可以欺騙人不去做任何事你也可以騙人去做一些事通過委托欺騙,過去的方法是使用微小的干擾、面部表情和身體語言。
我們之前和索尼、AIBO、三星就機器人的一些動態方面有合作,在十年、十五年之前有專利,我們對不同的事項采用了許多不同的方法,基本上它會產生錯誤的信號使我們在人當中研究它起作用的方式。
其實我們目的是希望推動機器學習、推動機器的表現。在老人當中通過機器人識別它的功能,機器人在一些情況下會欺騙他們,你做的很棒,其實你做得很糟糕。但它讓他們保持前進,不斷移動。
它們可能會有超乎尋常的表現,那時這不再是什么罕見的教育,每個人在某些點上都可能是天才,我們還用案例庫推理。
最后我提的一點就是機器道德,我在機器人領域工作已超十年了,許多機器人開始隨著戰爭產生,這是一個不同尋常的話題,問題在于機器人要怎么做我們應該允許機器人撒謊嗎?甚至是對人類?
至于道德框架的使用,如果選用道德理論的框架,回答就是“不”,你永遠都不應該撒謊;如果從功利和結果的角度,回答就“是”。
如果能夠最大化人類的幸福,這可能就是一件應該做的好事,關于什么是應該做的正確的事,有許多復雜的人類學理論,那你應該能夠接受不論是好還是壞的欺騙了。
最后有一個重大的問題我們應該讓機器人撒謊嗎?我們應該這么做嗎?我們不能做嗎?我表示懷疑
過去我們已經完成了欺騙,但是我們應該這么做嗎?我們是否應該勸說機器人?這會導致機器人末日和其他一些情況,或者其他能告訴我們關于自身的一些事,事實上令我們變得更好,讓社會變得更好!
機器人成為整個社會的一份子、社會生活的伙伴,這才是你的生活所需要的。而不是獨自的時光,如果它們不是每時每刻都十足誠實,或許你可能直接輸入、輸出,就是將一個不誠實的參數輸入、輸出,根據你的需要調整不誠實的等級。
我們沒有指導手冊告訴我們怎么做,有全球委員會就一些機器人道德問題做了系統計算,以及它的下級的機器人道德倫理的職委委員會,可以了解下。
評論
查看更多