這篇文章來源于DevicePlus.com英語網站的翻譯稿。
埃隆·馬斯克一直是技術創新和未來商業模式的前沿代表。所以,當他對硅谷加速采用人工智能(AI)和機器人技術感到害怕時,很多人感到驚訝。
隨著爭論的持續,您可能會懷疑他說的是否有道理。我們是否需要支持毀滅開關的AI和機器人標準?
馬斯克(PayPal、特斯拉和SpaceX創始人)認為,人類或將無力抵抗發展到集中化的人工智能(AI)。他還認為AI的發展速度比人們想象的要快得多,并且很可能會摧毀人類。
該思想與馬斯克前幾年的說法遙相呼應。當時,馬斯克表示人類與AI的融合不可避免,因此為了對人工智能實施更多控制,最佳解決方案是人類-智能共生體。
馬斯克并不孤單!
理論物理學家斯蒂芬霍金表示,如果技術進步失控,那么智能程序和機器人可能會以人類無法比擬的速度持續進化升級,并能快速重新設計自己,我們都應該擔心這一點。
此外,他認為當AI超越人類智慧時,我們將面臨可怕的后果。生存風險研究中心(CSER)和劍橋大學Leverhulme未來智能中心的專家也表現出相同的擔憂,并將AI列為未來最大的顧慮。
另外,他們還表示, 到2075年自主AI就能夠趕上人類智能水平。因此,如果不加以控制,這些智能機器人可能會引發核戰并摧毀整個人類。
然而,倫敦實驗室DeepMind的聯合創始人Demis Hassabis提出了不同意見。雖然AI經歷了一段加速發展時期,但仍然不是馬斯克所擔心的全能自我進化軟件。
如今的AI為Google搜索引擎、基本數字助理(比如Apple的Siri)以及Facebook使用的照片標記技術等領域提供支持。但是,人們的最終目標是構建一種可以模仿人類學習的高適應性自學AI,這并不是什么秘密。
因此,可以得出結論,Hassabis和馬斯克都是對的。不受限制的AI發展是一個非常現實的危險,但是用世界末日描述這個問題可能是杞人憂天(更像是一種干擾)。
然而,即使是Hassabis的合作伙伴和DeepMind聯合創始人Shane Legg也認為AI技術將導致人類滅絕。
AI在短期內為人民帶來了巨大的好處,然而,參與機器人標準的討論和對話從而制定相關標準也非常重要。
這意味著現在就應該擬定協議來管理人工智能和機器人,而不是在他們獲得卓越智能之后。因此,在人工智能中加入毀滅開關可能是一個好主意,但是全球管理機構也必須回答一些道德問題。
比如,AI應該像人類一樣獲得權利嗎?更重要的是,當AI造成傷害時,誰應該承擔責任?
AI、機器人以及機器人定律
科幻作家Isaac Asimov在20世紀中期就考慮過這些事情。他建議實施以下機器人三大定律,以確保對人類的保護。
第一定律:機器人不得傷害人類或坐視人類遭受危險而袖手不管。第二定律:機器人必須始終服從人類的命令,當該命令與第一定律沖突時例外。
第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己。雖然這些虛構的法則可能會讓人想起阿諾德·施瓦辛格和終結者第一部,但可能是一個很好的起點。
馬斯克對于的AI恐懼并沒有被忽視。事實上,許多組織正在就系統地管理AI做出努力。亞馬遜、Facebook、谷歌、IBM、微軟等公司已經共同成立了AI合作組織(Partnership on Artificial Intelligence to Benefit People and Society)。Orwellian-sounding團隊希望在研發AI和機器人技術最佳實踐的同時經營一個開放式平臺,以鼓勵人們對該主題進行廣泛討論。此外,美國政府去年發布了自動駕駛汽車指南。
世界上最古老的兩個科學組織——英國皇家學會和英國國家學術院——也發表了一份報告,呼吁建立一個國家機構,以管理AI的進化發展。可以肯定的是,盡管許多人不像馬斯克那樣激進,但是這些日益增長的擔憂在世界范圍內得到了共識。
然而,人們仍然存在許多分歧,因此我們仍未就如何實施達成任何協議。人們對機器人標準同樣也未達成共識,所以我們只能拭目以待最終結果。
有一件事是肯定的:這次討論生正逢時,而且世界上的許多偉大思想都已經參與其中。我們朝著正確方向邁出了一步,希望能夠推動毀滅開關理論和最佳實踐向前發展。
DevicePlus 編輯團隊
設備升級版適用于所有熱愛電子和機電一體化的人。
審核編輯黃宇
-
機器人
+關注
關注
211文章
28390瀏覽量
206959 -
AI
+關注
關注
87文章
30763瀏覽量
268917
發布評論請先 登錄
相關推薦
評論