概要:關于人工智能,長期存在兩種不同的目標或者理念。
關于人工智能,長期存在兩種不同的目標或者理念。一種是希望借鑒人類的智能行為,研制出更好的工具以減輕人類智力勞動,一般稱為“弱人工智能”,類似于“高級仿生學”。另一種是希望研制出達到甚至超越人類智慧水平的人造物,具有心智和意識、能根據自己的意圖開展行動,一般稱為“強人工智能”,實則可謂“人造智能”。
人工智能技術現在所取得的進展和成功,是緣于“弱人工智能”而不是“強人工智能”的研究。正如國際人工智能聯合會前主席、牛津大學計算機系主任邁克爾·伍德里奇(Michael Wooldrige)教授在2016年CCF-GAIR大會1報告中所說:強人工智能“幾乎沒有進展”,甚至“幾乎沒有嚴肅的活動”(“little progress, little serious activity”)。事實上,人工智能國際主流學界所持的目標是弱人工智能,也少有人致力于強人工智能。
?牛津大學邁克爾·伍德里奇教授
首先,從技術上來說,主流人工智能學界的努力從來就不是朝向強人工智能,現有技術的發展也不會自動地使強人工智能成為可能。
不妨看看現在人工智能技術所取得的成功。在圖像識別、語音識別方面,機器已經達到甚至超過了普通人類的水平;在機器翻譯方面,便攜的實時翻譯器已成為現實;在自動推理方面,機器很早就能進行定理自動證明;在棋類游戲方面,機器已經打敗了最頂尖的人類棋手……可以看出,上述成功有一個共同的特點:它們都是在考慮某種特定類型的智能行為,而不是“完全智能”行為2。一方面,聚焦在特定類型的智能行為上,才使得任務成為可能而非空談3;另一方面,如果目標是制造“工具”,那么考慮特定類型的智能行為就已足夠,自主心智、獨立意識、甚至情感?之類的東西,根本無須考慮。打個未必恰當的比方,如果人們的目標是造個工具砸東西,那么造出錘子來就好了,無須考慮讓錘子有心智、意識,也不必考慮是否要讓錘子自己感覺到“疼”。事實上,人工智能研究活躍的子領域,都是與制造智能“工具”直接相關的;而對“強人工智能”必不可少、卻與“工具”不太相關的內容,如自主心智、獨立意識、機器情感之類,罕有嚴肅的研究。所以,現有技術即便發展再快、發展再好,也不會直接使得強人工智能成為可能。
第二,即便想研究強人工智能,也不知道路在何方。
有一種說法,認為如果能夠模擬出“人腦”,把其中的神經元、神經突觸等全部同規模地仿制出來,那么強人工智能就會自然產生。然而,這種說法從來沒有得到過一點點證明,嚴格說來甚至不能稱其為“猜想”,因為猜想也應該有一些即便不夠完備但尚能顯示可能性的證據,例如通過仿制簡單細胞,做出了單細胞智能生物。實際上,我們完全有更強烈的理由認為,即便能精確地觀察和仿制出神經細胞的行為,也無法還原產生出智能行為。正如國際人工智能終身成就獎得主、多倫多大學赫克托·萊韋斯克(Hector J. Levesque)教授在他2017年的新著?中所說,即便在最理想的情況下,神經科學家也僅是能獲得“目標代碼”而已,沒有理由認為獲得了目標代碼就能還原出源代碼,因為這樣的“反向工程”即便對軟件程序來說也幾乎是不可能的,更何況神經細胞內部還存在“分布式表示”?。
第三,即便強人工智能是可能的,也不應該去研究它。
任何一個科學研究領域或許都存在一些不該去觸碰的東西。例如克隆人是被主流生命科學界所禁止的。強人工智能的造物將具有自主心智、獨立意識,那么,它憑什么能“甘心”為人類服務、被人類“奴役”?有人把阿西莫夫的“機器人三定律”?奉為圭臬,但事實上這是行不通的。且不論三定律自身的矛盾和漏洞?,憑什么以為有自主心智和獨立意識,且智能全面達到甚至超越人類水平的機器,就不會把這些約束改掉呢?即便它是善意的,人類又憑什么認為它會同意比它“愚蠢”的人類的判斷?例如它會不會以為把人類全部關進監獄就可以避免人類互相殘殺,這才是對人類整體最好的?至于說,到時候人類如果覺得危險了,可以把機器的電源斷開……這只是開個玩笑吧,真到那個時候,機器恐怕早就能采用其他的方式攝入能源了。總之,強人工智能出現的那一天,恐怕真的就是人類面臨最大生存危機的時候。所以,對嚴肅的人工智能研究者來說,如果真的相信自己的努力會產生結果,那就不該去觸碰強人工智能。
-
人工智能
+關注
關注
1791文章
47244瀏覽量
238381 -
深度學習
+關注
關注
73文章
5503瀏覽量
121145
原文標題:周志華:嚴肅的研究者就不該去觸碰強人工智能
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論