2020,這個略帶對仗神秘感的數字,給予了人們許多對未來的期盼。時至今日,不少人自嘲今年是“見證歷史”的一年,我們以科技為主題的專欄也在這歷史潮流的裹挾中應運而生。
鑒于此,紅杉匯聯合成員企業童行學院創始人、“雨果獎”獲得者郝景芳開啟“折疊宇宙”這檔專欄誕生的初衷,以“打開折疊宇宙,看見跨界未來”為宗旨,以通俗易懂的大眾化語言,拆解科技領域專業術語和科學概念,傳播重要信息思維,讓前沿科技走進大眾。
我們精心選擇了人工智能、基因編輯、機械骨骼、細胞醫療等與你我他息息相關的話題,腳踏實地的深入研究領域內的各機構,如中科院首席專家、領域內創始人、研究第一人等,獨家解析。
我們期望帶著讀者在與不同城市、不同歷史時空、不同行業領域的人破壁、破次元、破圈層,相互溝通,跨界對話,一同進入腦洞大開的未來。本期我們帶來這一系列的第一個話題——人工智能。
有關人工智能,過去幾年已是老生常談。但關于人工智能與人的邊界,行業一直存在爭議,并且衍生出不同的想象。熱門的科幻電影《機械姬》隱喻出有關人工智能技術發展的兩大問題:一個是圖靈測試可能存在缺陷,一個是人工智能與人腦的界限究竟在哪里。 對科學家而言,這或許是難以解答的技術性命題,需要漫長的理論證實和研究。但對更多人來說,大家關心的無外乎兩類問題:
?未來人工智能會不會像機械姬這么聰明?
?人工智能會超越人類智商進而統治人類嗎?
圍棋可以說是人類智力游戲的最高峰,AlphaGo曾在圍棋比賽中戰勝了人類世界冠軍李世石,這難道還不夠聰明嗎?其實,在單一智能方面,人工智能已經超越人類,但是綜合智能方面,還和人類差得很遠。 為此,我們特意實地探訪了AI類腦智能研究中心,與中科院類腦智能研究中心副主任曾毅教授,隨郝景芳一起進行了一場未來感十足的AI對話,揭曉更多有關人工智能、類腦研究的秘密。
初探類腦網絡:假若獅子會說話?
郝景芳:身為一個主寫科幻小說的人,腦子里更多想的是天馬行空的思路,而曾毅教授則更多是腳踏實地的研究,非常想了解更多有關人工智能的前沿科技成果,科幻與科技的思維碰撞一向充滿了化學反應。先請曾毅教授為我們介紹下類腦網絡吧! 曾毅:我們為什么要從受大腦啟發的角度去構建人工智能呢?
實際上人類在發展過程中,一直是一種比較自信的動物。但在自然界面前,人類在整個演化過程當中,并不一定就是最優的,人類也還沒有到達演化的頂峰。但是,人類在構建人工智能的時候,我們可以認為在一個鏡子當中看我們自己,在構建一種新的文明。 受人類智能啟發,有人說構建AI不需要參考人類智能。如果這樣,可能忽略的就是數億年的自然演化帶給我們的力量。人類是怎么產生的?
正是在數億年的演化過程當中產生的。有個非常有意思的例子,有位哲學家曾經說過,如果一只獅子會說話,那我們就沒有辦法去理解它。另一位哲學家Daniel Danette卻認為不是這樣。如果一個獅子會說話,我們將很好地理解這個動物。但這對于我們理解獅子毫無益處,因為一個會說話的獅子就已經不是獅子了。 這不就是我們在構建人工智能時所面臨的嗎?如果我們創造的AI,與人類的實現方式是完全不一樣的,那還是我們理解的智能嗎?
從這個角度來講,我們更多希望受到大自然演化機制的啟發,去構建未來的人工智能。更關鍵的是,這種方式構建的人工智能對人類來講可能是最貼近的,最容易被人類理解的,也是最安全的方式。可以想象,如果你用一種完全不同的方式去構建人工智能,你自己也說不清楚它為什么工作。就像現在深度神經網絡的系統,很多層隱藏很難解釋一樣。你寧愿相信這樣的系統,還是相信一個基于這個數億年的演化,得到了現有機制和結構發展出來的智能系統呢? 答案已經非常明顯了。我們在構建類腦人工智能的過程當中,其實是受到腦結構和它機制的啟發,而不是去克隆!因為自然演化的過程,已經使得我們大腦的結構和機制調整得更適合去解決問題。
人類是唯一具有意識的智能體嗎?
曾毅:有一個非常有意思的實驗,我們經常說一個人之所以跟動物有區別,就是因為人類可以有意識,但實際上人類是不是唯一能夠具有意識的智能體?從認知科學的角度來研究的話,有不同的認識。如果我們跟AI系統來比較,AI永遠不可能有意識。 自我意識是意識的其中一種,通過鏡像測試,我們認為很多動物是有自我意識的,比如說大象、海豚。
通過測試,可以看出海豚像人一樣具有自我意識,而有一些動物像猴子,它就不能夠通過鏡像測試。 我有一個同事,訓練恒河猴大概兩到五周的時間,使得它在訓練以后能夠通過鏡像測試。當時給我的啟發就是,如果我要構建一個猴腦的計算模型,要做的實驗就是人們設計給訓練猴子的這個實驗。如果猴子能夠學會通過鏡像測試,那么是不是人工智能也能夠學會通過鏡像測試。最終的結果是積極的,我們的小機器人通過了鏡像測試。你在用激光筆打到它的臉上的時候,它知道你打的是他的臉,而不是其他的幾個長得跟它一模一樣的機器人。但是在未經訓練之前,它沒有這樣的意識。 當時這件事情,把我神經科學的同事嚇了一跳。
他們說,這一定是個假新聞,因為機器人怎么可能具有意識呢?我沒有說機器人具有意識啊,我是說,通過這個訓練后,使猴子有了自我意識。但實驗是你設計的,猴腦是猴子大腦的一個復制品,我們把它運用到機器人身上去。現在猴子通過了測試,你說猴子具有自我意識,機器人通過測試,你說機器人沒有自我意識,我說這個道理在哪里呢?實際上我的結論是說一個沒有自我意識的機器人,現在通過了鏡像測試,那能說明什么呢?說明從神經學和心理學出發設計的鏡像測試,可能并不能作為檢測自我意識的黃金標準。郝景芳:我非常有感觸。人工智能帶來的最大好處,其實是讓我們人類更理解我們自己。
就比如說我看了一些人工智能的相關原理后,我發現人工智能,它其實是很難做自我驅動的一些事情,你讓它下圍棋,它不會去干別的。所以我觀察小朋友。他現在一歲多,每到一個陌生的環境,會四處打量,覺得很稀奇有趣。當他看到有人把百葉窗的窗簾嘩的弄下來時,他看呆了,仿佛沒見過這么有意思的現象。于是就跑到窗戶旁邊,也想擺弄著玩。 但人工智能就不一樣了,像AlphaGo雖然戰勝了人類,卻并不會想到除了下圍棋,還能去做什么,這種自我驅動力是AI所沒有的。
那我們人類是如何擁有這種力量的?就像曾教授剛才講的自我意識,我也是看馬文·明斯基的作品《情感機器人》,他說人至少有六層自我認知。先自我認知,然后有個自我批評,再對自我批評的自我批評,然后有一個自我綜合定位等等。所以,人類的意識是非常復雜的。我們越是想要構建發達的AI神經網絡,就越發現“哦,其實我們人類本身就挺神奇的。”
AI的善與惡 要看人類怎么定義
曾毅:另一個非常有意思的觀點同樣來自一位哲學家。他認為:“擬人化的人工智能是一個錯誤的發展道路,因為人類的情感和價值觀,就是我們仇恨、敵視的來源,所以模仿了人類的情感和價值觀的機器人,會像我們現在的人類一樣危險。”我想他要表達的意思,并不是對人類很失望,而是說我們人類不完善的那一面,有可能被計算機學到,特別是我們所說的人類價值觀。如果我們自身的價值觀不正確的,定義這個價值觀的人是不正確的,那么產出的人工智能系統就非常危險。 郝景芳:因為現在很多人就在討論互聯網的極化。本來大家認為信息是平的,世界都變平了。但是現在發現互聯網的時代,大家反而各自湊到一起,反而激化了各種極端觀點,聲音被放大。
那未來會不會形成好多種人工智能,比如說,性別偏見人工智能,他們就專門是做性別偏見的智能。還有民族仇恨的人工智能,人和人的極端矛盾思想作用于AI。人工智能世界也會變得激化嗎? 曾毅:不排除這種可能。目前構建人工智能物,我們是在說人類要把人工智能變成什么樣子,所以它仍然是人類的一面鏡子。現在人類的很多方面,像你說的會比較極端化,所以我們現在要想如何避免這些情況的發生。
首先,我希望人工智能的模型演化速度要比大腦的演化速度再快一點。我覺得超級智能什么時候到來不重要,重要的是我們怎么定義。如果超級智能真的超級,那么它在我們所說的利他之心等方面,都要比人有過之而無不及。只有那樣的話才是真正的超級智能。所以像有些人說超級智能如果真的實現了,那人類就滅亡了。我說那還不是真正超級智能,仍然是一個沒有演化好的超級智能。
如果它演化好了的話,它就會發現真正的利他行為,所以我覺得這個可能是未來人工智能在發展過程中,特別是在構建它的倫理道德框架過程中,非常重要的發展方向。 基于現在對于人類價值觀的理解開始,實際上人類也還在演化的過程當中。我們未來構建的你可以理解是人類的擴展。它是另外一種文明,但也有可能是人類的未來。像景芳說的。如果人類未來存在的其中一種形式就是把意識上傳的話,那你可以認為它是另外一個增強人類的智能版本。
如果是這樣的話,我們現在同時也要思考的,就是人類如何去轉型。人類的倫理道德價值觀也在發生著演變。像我們剛剛提到一個場景,我們能不能在一個模擬的環境當中去演變,加速它演變的過程,使得現代人類能夠受益于這種計算模擬演變,再回饋于現代社會。我想這可能是對人類來講,既是一個終極機遇也是一個終極挑戰。 郝景芳:我想到了阿西莫夫的機器人三大定律,目的就是機器人服務于人類、保護人類,這是基本法則。
曾毅:對,但為什么要保護你而不是我?為什么保護的是人類不是機器人?一旦AI獲得了這種反思的能力的話,它就會去挑戰人類倫理道德和價值觀。但從另外一方面,我們也要去深刻思考人類倫理道德價值觀是不是有問題? 我有一個朋友他是耶魯大學生物倫理中心主任叫Wendell Wallach。他寫了一本書,叫做《道德機器》。在那本書的中文版書皮上,有這樣一句話“永遠把機器關在道德的牢籠里”。我看到這句話覺得很不舒服,提出了質疑,他卻堅持這句話是對的,并且要刊在英文第二版書上。 我說,“如果這樣的話,你就不要給我看你的書了”。我不同意這句話,為什么呢?
你可以設想這樣一個場景:在2015年的時候,AI可以看著網絡視頻學會炒菜。然后現在我們要構建更高智能的AI,教它去理解電影里面的場景。那么30年之后,超級智能真正到來的時刻,AI在網絡上看到,關于人類如何對待機器人的視頻。你想一想,那到底是人類在牢籠里還是機器在牢籠里面?這是一個很難回答的問題。 他聽完笑的很大聲,但始終沒有給出問題的答案。我想就是這樣,我們現在并不確定人類的道德倫理價值觀就是最優的,構建以人類為中心的人工智能倫理,真就那么好嗎?還有一個策略是以生態為中心,人類是生態的一部分。 1950年艾倫·圖靈寫計算機智能的時候,文章中有句話,大意為,我們應該有以宇宙為中心的這樣的視角來構建新興科技的倫理的問題。
所以我覺得人類能夠看到的視野是很小一部分,往前一點點。即使是這樣,還有很多問題亟待解決。郝景芳:其實科幻照進科學,科學也照進科幻。這本來就是一個思想實驗的共生體。像剛才討論說未來人工智能是否可以真的去判決人類,我其實真就寫過這樣一個法庭的故事。人工智能誤判了人類,它從表面看事實是一回事,但深究內里卻是不對的。那這樣一個故事就是從我去了解到人工智能的原理所得來的靈感。所以想要寫關于未來的故事,本身就應該多去學習一些前沿科技。
原文標題:曾毅對話郝景芳:人工智能不是未來,而是現在 | 紅杉愛科學
文章出處:【微信公眾號:紅杉匯】歡迎添加關注!文章轉載請注明出處。
責任編輯:haq
-
機器人
+關注
關注
211文章
28390瀏覽量
206951 -
AI
+關注
關注
87文章
30763瀏覽量
268908 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238290
原文標題:曾毅對話郝景芳:人工智能不是未來,而是現在 | 紅杉愛科學
文章出處:【微信號:Sequoiacap,微信公眾號:紅杉匯】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論