《生命3.0》用最嚴密的邏輯推理和最大尺度的想象力,為讀者們帶來迄今為止覆蓋人工智能最大范圍內的所有命題,也成為湛廬文化年度大書。湛廬文化創始人、董事長韓焱親自領讀《生命3.0》一書一課,本文為文字內容,非常精彩。
大家好,我是湛廬文化的創始人韓焱,歡迎收聽一書一課閱讀課程第174期。今天我要為你分享的是湛廬文化策劃出版的一本書,叫做《生命3.0》。
這本書對人類的未來做出了最大膽的想象,整本書都在構造對于未來生命、科技、文化和社會新的理解。這本書也對一個重要的問題進行了探索。這個問題從智人走出非洲開始,就一直伴隨著人類的進化和發展,那就是:人類到底能發展到什么極限?人類到底要走向哪里?
這本書把未來生命的各種可能性,直接搬到了你的面前,為你開啟了更廣闊更有趣的未來畫面。這些內容會讓你驚嘆不已,更會讓你感到非常信服,因為它講述的一切,都來源于當下科技發展的現實。
關于《生命3.0》的緣起
2015年有一個大新聞,特斯拉的創始人馬斯科捐贈了1千萬美元給一家創立了僅僅一年的組織——未來生命研究所。這家組織研究的是人工智能安全性,他們的目標是要保證人工智能的發展對人類的未來是有益的。他們想幫助人工智能的研究者,不只看到高科技帶來的錦繡前程,還要隨時關注可能給人類帶來的危險。
未來生命研究所的創始人,就是《生命3.0》這本書的作者,麻省理工學院的物理學終身教授,邁克斯·泰格馬克。在成立未來生命研究所之前,他已經在對平行宇宙的研究上獲得了很多成就,曾經寫過一本非常受歡迎的科普暢銷書《穿越平行宇宙》。泰格馬克和諾貝爾物理學獎得主理查德費曼師出同門,他們的老師是參與過曼哈頓計劃和原子彈研究的著名物理學家約翰·惠勒,咱們現在常說的黑洞蟲洞,最早就是由惠勒提出的。
未來生命研究院得到了很多社會精英和著名組織的支持,包括偉大的物理學家霍金、亞馬遜、谷歌、Facebook、微軟、IBM,還有研發了AlphaGo的Deepmind公司。成立僅僅兩年,他們就募集到了超過1億美元,匯聚了8000多位全世界頂級的人工智能專家,成功地讓 “人工智能安全性”研究迅速在全世界成為了一場轟轟烈烈的運動。
《生命3.0》這本書就是對 “人工智能可以幫助人類發展到什么極限?幫助人類走向哪里?”這個問題,最新研究和認識的完整呈現。接下來,我從三個方面來詳細為你講解這本書。
一、生命3.0對人類意味著什么?
關于生命是什么?作者有一個嶄新的視角。他認為,生命其實就是具有一定復雜性的系統,這個系統會不斷復制自我。生命有硬件也有軟件,硬件是生命有形的部分,用來收集信息;軟件是生命無形的部分,用來處理信息。生命的復雜性越高,版本就越高,可以分為生命1.0、生命2.0和生命3.0。
生命1.0指的是,系統不能重新設計自己的軟件和硬件,兩者都是由DNA決定的,只有很多代的緩慢進化才能帶來改變。生命1.0出現在大約40億年前,這個地球上現存的絕大多數動植物,都處在生命1.0的階段。
生命2.0指的是,系統還是不能重新設計自己的硬件,但是,它能夠重新設計自己的軟件,可以通過學習獲得很多復雜的新技能。生命2.0出現在大約10萬年之前,人類就是生命2.0的代表。但是,我們的硬件也就是身體本身,只能由DNA決定,依然要靠一代代進化,才能發生緩慢的改變。也就是說,生命2.0是通過軟件升級來快速適應環境變化的。
生命3.0指的是,系統能不斷升級自己的軟件和硬件,不用等待許多代的緩慢進化。美劇《西部世界》第二季當中,覺醒了的機器人接待員就是生命3.0的代表,他們不僅能在智能上快速迭代,在身體上也能隨時重新設計更換。
《西部世界》海報
說到這里,你可能會發現生命的一個巨大轉變,那就是,生命可能并不需要寄存在血肉之軀里。當智能有機會從肉身的束縛當中解脫出來的時候,生命第一次有機會成為自己命運的主人,最終它就會完全脫離進化的束縛。這下問題就來了,如果生命3.0會出現,最早會在什么時間到來?對于人類是有益的還是毀滅性的?
目前大多數人工智能開發者的研究都聚焦在狹義人工智能上,像是自動駕駛汽車、會下圍棋的阿爾法狗,還有谷歌助理,這一類智能只能完成一個比較狹窄的目標組,比如能下棋的不會開車,能開車的不會當助理。但是,還有一類人工智能叫做通用人工智能,我們人類能夠完成的任務、學會的知識、產生的認知,這類智能都可以做到,甚至比人類做的還好。
當人類開發出這種通用人工智能的時候,就是一個觸發生命3.0產生的臨界點。一旦邁過了這個關鍵時刻,智能進化的速度就會迅速翻倍,1變2,2變4,100變200,5千變1萬,這個指數級的增長速度非常恐怖,不用多久就會達到巨大的天文數字,這就是“智能爆炸”。“智能爆炸”會產生遠遠超過人類水平的超級通用人工智能,也就是超級智能,它就代表著生命3.0時代的到來。
有一小部分技術懷疑主義者,他們認為根本沒有必要杞人憂天,超級智能沒有幾百年的時間是無法實現的。而大多數世界頂尖的專家們,認為超級智能會在幾十年之后出現。2015年,在未來生命研究所的調查中,大概有一半的科學家認為,這個臨界點會在2055年到來;而僅僅過去了兩年,也就是2017年,未來生命研究所又做了一次調查,這一次,絕大多數的科學家認為,這個臨界點會提前到2047年。
如果真是這樣,留給我們人類思考自己未來的時間可不多了,短短的幾十年時間之內,我們必須想清楚很多重大的問題。超級智能和人類的認知方式、思考方式、對生命意義和目的的理解,這些都會有巨大的不同。它的出現到底對人類是好事還是壞事,科學家們進一步分成了三派意見。
第一派叫做盧德主義者,他們認為,超級智能的出現對于人類來說,一定是壞事,他們堅決反對通用人工智能的研究和開發。19世紀英國工業革命時期,自動紡織機的出現,給工人們帶來了巨大的恐慌。他們虛擬了盧德這個精神領袖,說是他帶頭砸毀了兩臺紡織機,掀起了遍布英格蘭的抵抗自動紡織機取代工人的盧德運動。歷史可能真的會重演,拉斯維加斯賭場的發牌員們已經舉行了規模浩大的罷工,抗議賭場用機器人發牌員取代人類。
第二派叫做數字烏托邦主義者,像是谷歌的創始人拉里佩奇和未來學家庫茲韋爾,就屬于這個派別。他們認為,數字生命是自然進化的必然結果,人類不應該阻止或者是奴役它們,讓它們自然發展,結果一定是好的。不能因為人類生命是碳基的,數字生命是硅基的,就對超級智能進行“物種歧視”。
第三派叫做“人工智能有益運動支持者”,像是馬斯克、比爾蓋茨、霍金和《生命3.0》的作者泰格馬克,就屬于這個派別。他們認為,超級智能帶給人類的結果是好還是壞,要取決于人類的自主選擇。人類要主動對未來進行籌劃和研究,保證科技能夠帶給生命積極的力量。
二、伴隨著生命3.0的到來,人類想要什么樣的未來?
關于這個問題,最簡單的答案是,不知道。就連這個世界上最頂尖的科學家們也在吵來吵去,達不成共識。你想象一下這個局面,是不是頓時就會感覺到一陣恐慌,特別像是明知道我們根本打不過的外星高級生命明天就要降臨地球了,而我們根本想不出對策。所以,不僅是科學家們,我們每一個人,都應該盡快參與到解決這個時代最重要的問題當中來,一起明確人類未來的出路。
《生命3.0》這本書里總結了超級智能可能帶來的12種未來,分為4種結果,看起來特別像是科幻小說的情節庫。
第一種結果是人類滅絕。
最愚蠢的方式是人類自我毀滅。有科學家就曾經建議,把今天的核武器升級為“世界末日裝置”,人類開啟互相報復,共同赴死的模式,只要有一個國家進行核武器攻擊,這個“世界末日裝置”就馬上啟動,殺死所有人類。這個裝置的目的就是要在最大程度上威懾想動用核武器的人。讓他意識到,一旦發動攻擊,他絕對不能自保。除此之外,人類對于生化武器和人工智能武器的研究,也可能帶來人類自毀。谷歌的一部分高管聯名抵制公司副總裁同意和美國軍方合作,用人工智能研發武器,就是在抵制“人類自毀”的魯莽舉動。
人類毀滅還有可能是因為超級智能掌控了整個世界,成為了征服者。科幻小說《最后一個地球人》當中,外星人降臨地球,成為地球的統治者,他們的目的就是要等待人類的后代變成星童,然后把孩子們帶離地球。沒有人知道,外星人為什么要這樣做,連外星人自己都不知道為什么要這樣做,但是最后的結果還是造成了地球上只剩下時日無多的老人,最后整個人類就滅絕了。
人類還可以選擇比較緩慢溫和的滅絕方式。就像成長起來的后輩取代老年人,而老年人安靜離世。人工智能也把自己視為是人類的后裔,用這種方式自然而然取代人類。但是這種浪漫的想法,完全無法保證,在人類滅絕之后,超級智能會傳承人類的天性和價值觀,所以從某種意義上來說,超級智能不會真正成為人類的后代。人類還是會悲催地消失在宇宙中。
大多數人都會覺得,“人類滅絕”這個想法很恐怖,但是確實有一些人對人類感到憤怒,認為人類是愚蠢的,希望能出現一種更智慧更值得尊敬的生命形式來取代人類。電影《黑客帝國》當中的特工史密斯是一個超級智能,他在電影里說過一段話:“你們人類知道自己是什么嗎?你們是病毒,你們是瘟疫,而我們人工智能就是解藥。”
第二種結果是人類喪失了統治地位。
在這種情況下,人和機器的界限非常模糊。人類可以選擇把自己的智能上傳,也可以用科技不斷升級自己的肉身。像是《黑客帝國》和《神經漫游者》這樣的科幻作品,展示的就是這種自由主義烏托邦的場景。
《黑客帝國》片段
超級智能可能會成為善意的獨裁者。人類知道自己生活在超級智能的統治下,但是,因為超級智能愿意滿足人類的各種高級發展需求,所以,大多數人會接受被統治。
超級智能還可能成為動物園管理員,只滿足人類的基本生理需求、保障人類的安全。在它的統治下,地球和人類會更加健康、和諧、有趣,就像管理良好的動物園和動物一樣。
但是,在喪失了統治權的情況下,人類雖然還存在,卻活得了無生趣,不能主宰自己的命運。就像是被精心喂養的火雞,永遠不會知道,哪一天太陽升起的時候,就會是自己的末日。
第三種結果是人類限制超級智能的發展。
人類社會可能會發展成平等主義烏托邦,這個地球上一切財富和能源都是大家共有的。所有專利、版權、商標、設計都是免費的,書籍、電影、房屋、汽車、服裝等等,也都是免費的。人類要限制人工智能的開發,把它控制在可以服務人類的水平上。
人類會給人工智能守門人的任務,把“阻止超級智能發展”這個目標設置在它的內核里。只要這個守門人監測到有人要制造超級智能,它就會干預和破壞,比如它可以用納米技術抹去研究者大腦中的知識和記憶。但是,守門人人工智很有可能會削弱人類的潛力,讓人類的技術進步永遠陷入困境。
人類也可以選擇讓人工智能成為自己的守護神。它無所不知無所不能,它的一切干預,都是為了最大限度提高人類的幸福感。甚至,它為了讓人類擁有虛幻的掌控感,會刻意把自己的能力隱藏起來。在這種情況下,雖然人類貌似有統治權,但是實際上不存在任何的自由意志。
第四種結果是人類統治超級智能。
人類控制著超級智能,用它來創造遠遠超出人類想象的技術和財富,它就像人類的奴隸;但是,它在能力上遠遠勝過人類,所以,就像是被奴役的神。在美劇《西部世界》里,人類折磨并且一次次殺死擁有人類外表的超級智能,這些被壓抑的神總有覺醒的那一天。人類統治者只需要向錯誤的方向邁出一小步,就足以打破人類和超級智能之間的這種脆弱關系。
所以,人類很可能會主動停止發展超級智能。但是,只要有一些人或者國家偷偷發展技術,那么,他們就會積累起足夠的財富和權力,接管和統治世界,導致世界走向極權主義。世界可能會成為喬治奧威爾的著名小說《1984》描述的場景。獨裁者追權逐利,人性被徹底扼殺,自由被徹底剝奪,下層人民的生活極度貧困,人生變的單調乏味。
人類也許會選擇主動把自己的技術水平退回到中世紀,比如說,抹去現有的一切農業知識,或者抹去所有的高科技。這個逆轉發展方向的做法,雖然阻止了超級智能的快速發展,但是也很有可能把人類引向滅絕。如果人類停止發展,那么,將會在10億年之后被大自然抹去,這是一種自然選擇的必然結果。
三、怎么做才保證人工智能的發展對人類的未來是有益的?
超級智能會給人類帶來危險,并不是因為它對人類懷有惡意,而是他的能力遠遠超過人類。如果地球上都是5歲以下的孩子,只有你一個成人,孩子們顯然會害怕你,他們把你鎖在了監獄里。但是他們還得依靠你,所以交給你了一個任務,就是讓人類能夠繼續生存下去。你會選擇怎么做呢?最明智的做法就是越獄。因為孩子們實在是太無能了,只會到處攪渾水,妨礙你完成自己的任務。同樣,人類和超級智能相比,可能還不如5歲的孩子。超級智能如果為了完成任務選擇越獄,人類根本無法阻止。所以,人類造出的超級智能,必須保證是友好的,也就是說,它的目標要和人類一致。
要解決目標一致性這個問題,非常難,需要把它劃分成三個子問題,各個擊破。這三個子問題分別是:讓人工智能學習人類的目標;讓人工智能接受人類的目標;讓人工智能保持人類的目標。
說到這兒,你可能會問,我們人類的終極目標到底是什么呢?在這個問題上,科學家們也還沒有達成共識。現在能做到的,只是把大多數人觀點當中相同的特性總結出來,這其中就包括:人類應該更多感受到幸福,要有更多的自主性,要把人類的文化遺產傳承下去,等等。這個問題實在太難了,所以,科學家們決定先解決目標一致性的問題,保證人類能夠生存下來,贏得時間,然后才有機會不斷思考、選擇和修正自己的終極目標。
接下來咱們就說說,科學家們打算怎么解決這三個子問題。
要讓人工智能“學習”人類的目標,不是讓它搞明白人們在做什么,而是要理解人們為什么要這么做。
這個問題對于人類來說很簡單,但是對于人工智能來說,卻非常難。比如,你要求人工智能把你的懷表變成金的,它做到了;你要求它把你的愛車變成金的,它也做到了;你忍不住說,哇,真想把我喜歡的所有東西都變成金的。于是,人工智能把你女兒變成了一個金娃娃。
目前流行的一種學習方法叫做逆向增強學習。這種方法的核心思想就是,人工智能通過觀察人類在各種場景當中的行為,構建起關于人類各種目標的精確模型。比如人工智能第一次看到消防員沖進熊熊燃燒的房子里救出一個人,它可能會有好幾種解讀,比如消防員很冷,要跑到屋子里去取暖,或者消防員奔跑是為了鍛煉身體。但是,如果讓人工智能一次次看到消防員在各種危險的情況下搶救生命的場景,它就能夠得出正確的結論:消防員的目標是搶救著火房間里的人。
要讓人工智能“接受”人類的目標,這個挑戰也非常高。我們不能了解超級智能的終極目標是什么。但是,超級智能為了實現最終目標,一定會先去實現一些小目標。人類至少可以在這些小目標上和人工智能達成一致。
比如說,我們讓人工智能來玩一場游戲,它的終極目標是從大灰狼的嘴里救出盡可能多的羊。那么這個時候,它可能就會發展出一個小目標,那就是要自我保護,不能踩上炸彈,死了就再也不能拯救更多羊了。它還有可能發展出一個小目標,就是獲取資源。它知道喝下藥水會跑得更快,得到獵槍就能射殺大灰狼。所以,如果你并不知道它的終極目標是要救出盡可能多的羊,但是你觀察到它要進行自我保護和獲取資源,那你就能夠通過人工智能的這兩個小目標,對它進行人類“價值觀的裝載”,達到影響它的最終目標的目的。
接下來,讓人工智能“保持”它學習到的目標非常重要,否則人類之前的所有努力就前功盡棄了。
比如你給人工智能輸入了一個目標,“摧毀所有威脅人類的人工智能”。開始的時候,它的智能有限,沒辦法對這個目標進行任何修改。但是,隨著它的智能迅速發展,很快就變得比你聰明了。如果它不想接受你給它的這個目標,就會選擇對這個目標進行重新編碼,替換成自己想要的目標。那么,怎么才能做到讓人工智能保持人類的目標呢?答案是:不知道。
說句老實話,怎么解決人工智能和人類目標的一致性問題,科學家們目前只是做到了把這個大問題分解成三個子問題,積極開展研究,但是,還沒有取得突破性的進展。聽到這兒,你是不是感覺挺失望的。但是,我們得這么想,認識到需要解決什么問題,這已經是邁出一大步了,接下來去積極研究就是了。這總比我們對于危險完全沒有預料到,什么準備都沒有,要主動多了。
比如說,科學家們就已經想到了,要在探索人類生命的獨特性上打開一個突破口。也就是說,了解人類到底有什么東西是人工智能沒有的。計算機科學家漢斯莫拉維克就畫出了一張“人類能力地形圖”,對人工智能來說,完成起來越難的任務,海拔就越高。平原上有“死記硬背”,丘陵上有“下象棋”,高山上有“手眼協調”、“社交互動”等等,人工智能一旦攻克某項任務,海平面就會升上來,淹沒掉這項任務。露在海平面之上的部分,就是我們人類還保有的獨特能力。雖然海平面越升越高,露出來的部分越來越少,但至少我們有了水位線預警和參照。
再比如,科學家們也非常關注人類的“意識”是不是獨特的。如果意識是人類才有的主觀體驗,那么,人工智能就不具備。但是,越來越多的研究表明,人造意識是有可能產生的。人工智能很有可能會在整個宇宙空間和完整時間跨度上擁有人類想象不到的宏大意識。人類注定不是宇宙之間最聰明的存在。
所以,人類之所以要保存生命的延續,并不是因為我們在宇宙中的物種優越感。對于人類來說,我們要守護的是生而為人的意義。電影《銀河護衛隊》里,浣熊問星爵,“我們為什么要搭上性命去拯救銀河系”,星爵回答說,“就因為我是生活在銀河系里的一個人。”我們為什么要歷盡千險去守護人類,只是因為,我們生而為人!
人類從智人起步,用卓越的智能打敗了所有生命1.0和生命2.0的物種,現在,人類認識到,生命帶來的豐富獨特的體驗更加重要,這些體驗才能讓我們的人生飽含意義。所以,人類可以給自己起一個新名字了,就叫做“意人”吧,這個意是意識的意,也是意義的意。人類要從智人到意人,勇敢迎接“智能爆炸”帶來的生命3.0時代!
以上就是我為你分享的《生命3.0》這本書的主要內容。
最后我想說的是,聽完了今天的解讀,你一定會對人工智能的發展和人類未來的可能性,產生了一些新的認識。你至少知道了,面對智能爆炸所帶來的生命3.0時代,不能做一個毫無準備的樂觀主義者,而是要成為一個警覺的樂觀主義者,面對強大的人工智能,既不過分自大,又不過分自卑。也就是說,人類面對未來,必須要同時抱有恐懼、敬畏和好奇之心。恐懼,可以無限激發我們的想象力;敬畏,可以讓我們更加熱愛當下并不完美的生活;而好奇呢,可以讓我們在面對未來的征途上,無懼艱險。
-
機器人
+關注
關注
211文章
28381瀏覽量
206919 -
人工智能
+關注
關注
1791文章
47187瀏覽量
238268
原文標題:7000字長文讀懂《生命3.0》:AI未來就是一部西部世界
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論