英國已故科學家斯蒂芬·霍金的遺作《對大問題的簡明回答》于10月16日發(fā)售。在書中,霍金暗示,不久的未來,富人可以選擇編輯他們自己和孩子的DNA,讓自己和孩子變成擁有更強記憶力、抗病力、智力和更長壽命的“超人”。
霍金遺著封面
富人將有能力選擇變成“超級物種”
霍金寫道:“我敢肯定,本世紀之內(nèi),人們將找到修改智力和天資的辦法,比如攻擊性。”“可能會制定禁止人類基因工程的法律。但是,有人肯定抵制不了改進人類特征的誘惑,比如記憶力、疾病抵抗力和壽命。”
他還表示,這將對未修改基因的人造成嚴重后果,導致他們沒有競爭力。這位教授甚至警告說這可能導致人類走向滅絕。“他們可能會絕種,或淪為可有可無。”霍金談到了普通人。未來1000年的某個時刻,核戰(zhàn)爭或環(huán)境災難將“嚴重破壞地球”。可是,到那時,“我們的天才種族將已經(jīng)發(fā)現(xiàn)了擺脫地球粗暴束縛的辦法,因此能夠戰(zhàn)勝災難”。
不過,地球上的其他物種可能做不到。
書中還提到,成功逃離地球的人很可能是新的“超人”,他們利用諸如“規(guī)律成簇間隔短回文重復系統(tǒng)(CRISPR)”這樣的基因編輯技術超過其他人。霍金說,他們會不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預期壽命。
“已經(jīng)沒有時間留給達爾文的進化論來提高我們的智力、改善我們的天性了。”
這位《時間簡史》作者還提到了相關基因編輯方法,比如“規(guī)律成簇間隔短回文重復系統(tǒng)(CRISPR)”,科學家可以借此修復有害基因并加入其他基因。報道稱,盡管這類方法可能促進醫(yī)學發(fā)展,但是一些批評者擔心它也可能導致優(yōu)生學式的運動,弱勢者將被社會淘汰。
人工智能:別讓人類陷入“螞蟻窘境”
報道稱,霍金對規(guī)范管理人工智能的重要性提出了嚴重警告,指出“未來人工智能可能形成自己的意志,與我們?nèi)祟愊鄾_突的意志”。
他在書中寫道,應當制止可能出現(xiàn)的自動武器軍備競賽,提出如果發(fā)生類似于2010年股市閃電崩盤那樣的武器崩盤,其后果將會如何的疑問。他接著寫道:“總之,對人類來說,超級智慧的人工智能的出現(xiàn)不是福就是禍,二者必居其一。人工智能的真正危險并非在于惡意,而在于能力。超級智慧的人工智能將極其擅長實現(xiàn)目標。如果這些目標與我們不一致,那我們就麻煩了。你可能不是出于惡意而踩死螞蟻的那種邪惡的仇恨螞蟻的人,但是如果你負責一項水力環(huán)保能源項目,而洪水淹沒地區(qū)有一個蟻丘,那么螞蟻就慘了。別讓人類陷入螞蟻的境況。”
地球面臨的最大威脅
未來,地球面臨的頭號威脅就是小行星碰撞,類似那種導致恐龍滅絕的碰撞。霍金寫道:“我們(對此)無法防御。”
更直接的威脅是氣候變化。“海洋溫度上升將融化掉冰冠,釋放出大量二氧化碳。雙重效應可能導致我們的氣候類似于金星,氣溫達到250攝氏度。”
這些年來,霍金做過的預言
除了以上幾點,霍金在世時還做過這些預言,值得深思。
“外星人”在看著你
在2015年倫敦皇家科學學會尋找外星生命跡象的啟動儀式上,霍金就說過:“在無限的茫茫宇宙中,一定存在著其它形式的生命。”
他說:“或許外星生命會正盯著我們看呢。”“不管最終地外智慧生命到底存在、還是不存在,現(xiàn)在該是有人正式投入進來。這個問題,我們必須要弄個明白。”
據(jù)介紹,目前已有相關項目,該項目將動用部分目前世界上最大的望遠鏡,更遠地深入宇宙中去捕捉任何無線電波和激光信號。
地球?qū)⒆兂梢粋€“熊熊燃燒的火球”
霍金預言稱,稱人類可能在2600年前就會滅絕。霍金認為,隨著地球人口增長,能源消耗將會增加,地球?qū)⒆兂梢粋€“熊熊燃燒的火球”。
霍金表示相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。就如同1492年的歐洲,探索新大陸對舊世界帶來了深遠的影響。人類向太空的拓展,甚至將會產(chǎn)生更深遠的影響,這將徹底改變?nèi)祟惖奈磥恚踔習Q定我們是否還有未來。
千年內(nèi)人類須移民外星否則“滅絕”
霍金在美國洛杉磯發(fā)表演講時稱,他認為,未來1000年內(nèi),基本可以確定的是地球會因某場大災難而毀滅,如核戰(zhàn)爭或者溫室效應。因此,他強調(diào)人類必須移居其它星球。美國航空航天局局長格里芬也表示,單獨一顆行星上的物種,是不可能永久生存下來的。
在太陽系中,火星是除地球之外可供人類居住的最佳選擇。但火星載人探測要幾十年之后才能實施,探測一次往返要450天。
霍金表示:“人類滅絕是可能發(fā)生的,但卻不是不可避免的,我是個樂觀主義者,我相信科學技術的發(fā)展和進步最終可以帶人類沖出太陽系,到達宇宙中更遙遠的地方。”
智能機器是真正人類“終結(jié)者”
如上面所說,“超級智慧的人工智能的出現(xiàn)不是福就是禍,二者必居其一。”霍金曾多次表示,“徹底開發(fā)人工智能可能導致人類滅亡”。
按照霍金的說法,人工智能科技在初級發(fā)展階段的確為人類生活帶來便利,但是,機器將可能以不斷加快的速度重新設計自己。而人類則受制于生物進化速度,無法與其競爭,最終被超越。科學界把這種人工智能超越人類智慧的轉(zhuǎn)折點命名為“奇點”。
事實上,美國Space X首席執(zhí)行官埃隆·馬斯克,微軟創(chuàng)始人兼慈善家比爾·蓋茨,也都警告過要注意人工智能的“危害”。麻省理工學院教授、科學家、谷歌、IBM和微軟等企業(yè)員工及與人工智能領域有關的投資者,也聯(lián)名發(fā)出公開信,表達同樣的憂慮。
這是我們星球最危險的時刻
英國《衛(wèi)報》網(wǎng)站2016年12月1日刊載霍金的文章《這是我們星球最危險的時刻》。文章指出,英國脫歐公投和特朗普當選總統(tǒng),都代表了那些自認為被領導人拋棄的民眾的怒吼。這些被遺忘的民眾拒絕了所有專家和精英的建議和指導。西方精英須以謙遜之心看待民粹,切實彌補貧富差距。
“選票背后暗藏著人們對全球化與技術加速革新所造成的經(jīng)濟后果的擔憂,而這種心理完全可以理解。自動化工廠已經(jīng)裁減了大批傳統(tǒng)制造業(yè)崗位,人工智能的崛起很可能使就業(yè)遭破壞的情況蔓延到中產(chǎn)階級,只有最需要護理能力、創(chuàng)造力或者管理能力的崗位才能保留下來。”
“我們應不應該反過來把投票結(jié)果看成是在宣泄粗魯?shù)拿翊庵髁x,認定民粹主義無法認清現(xiàn)實,并企圖規(guī)避或者限制選票所代表的選擇結(jié)果?我認為如果這樣做將是大錯特錯的。”
“世界各國領導人必須承認,他們從過去到現(xiàn)在都在辜負大眾的期望。隨著資源日益集中到少數(shù)人手中,我們必須變得比現(xiàn)在更懂得如何分享。當消失的不只是崗位,還包括整個行業(yè)時,我們必須幫助人們接受再教育,迎接新的世界,必須在他們接受再教育的過程中提供經(jīng)濟支持。”
“我非常看好我們?nèi)祟悺5@需要所有精英,從倫敦到哈佛,從劍橋到好萊塢,都吸取教訓。而且首先要學會保持一定程度的謙遜態(tài)度。”
-
人工智能
+關注
關注
1791文章
47184瀏覽量
238266 -
霍金
+關注
關注
0文章
40瀏覽量
10491
原文標題:霍金臨終擔憂曝光!富人編輯基因成為“超人”,窮人無法競爭,“階級固化”無法避免
文章出處:【微信號:WUKOOAI,微信公眾號:悟空智能科技】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論