劃重點:
1、赫拉利認為,AI 帶來的不僅是科學挑戰(zhàn),還是哲學挑戰(zhàn);當 AI 和生物科技結合,它將具備黑入人類大腦的能力。
2、李飛飛堅信:AI 也正在解決一些以往沒法解決的社會挑戰(zhàn)和問題;并且決策不透明的挑戰(zhàn)是有望被 “可解釋AI” 解決的。
3、AI 領域和其它人文領域需要有更多的對話和碰撞,建立機制,讓 AI 科學家和社會學家、心理學家、哲學家一起工作。
《人類簡史》、《未來簡史》這兩本書,不少人都聽說過吧?
硅谷時間 4月22日晚,在斯坦福可容納約2000人的超級大演講廳,以這兩本暢銷書享譽全球的以色列著名歷史學家尤瓦爾?赫拉利(Yuval Noah Harari),與斯坦福一個多月前神秘成立的 “以人為本” AI研究院領導者李飛飛,展開了一場以人工智能為主題的對話。
(活動現(xiàn)場:左為赫拉利,中為李飛飛,圖自赫拉利 Twitter)
對話現(xiàn)場有多火爆呢?
硅谷洞察的特約記者在開場前 90 分鐘來到現(xiàn)場,發(fā)現(xiàn)演講廳外面已排起了千米長隊,還是兩列隊伍:一列提前訂票的 “坐票”,一列臨時來聽的“站票”。要知道,硅谷每天大小演講無數(shù),一場演講能吸引 200 人來就算很不錯了,如此火爆的演講幾乎史無前例... 這氣勢,根本就是演講屆的《復聯(lián)4》!
(現(xiàn)場圖。Photo credit:微子)
與赫拉利對 AI 的警惕與擔憂不同,李飛飛對 AI 的發(fā)展可謂樂觀不少。在這場討論上,兩位大咖針鋒相對、各抒己見,都聊了些啥?硅谷洞察(原 “硅谷密探”)這就帶你去一探究竟!
如果 AI +生物科技入侵你的大腦,你還是你嗎?
赫拉利用他在 2018 年出版的新書《21世紀的21堂課(21 lessons for the 21st century)》中提出的一個觀點開場。
赫拉利:AI帶來的不僅是一場科技挑戰(zhàn),還是一個哲學挑戰(zhàn)。當 AI 和生物科技結合起來后,它就會具備 ‘黑掉’ (hack)人類大腦的能力。這也就意味著,我們現(xiàn)在所謂的 “自由意志”、“獨立思考”、“民主決策” 等,都將在機器的算法前分崩離析。幾千年來,哲學家們討論的諸多生存問題,會在工程師們調(diào)教出來的算法面前徹底變形。
具體點說,現(xiàn)在的人工智能建立在大量數(shù)據(jù)之上,一個 AI 算法已經(jīng)能夠比我們單個人腦做出更好的決策,比我們自己還了解自己。它準確知道我們喜歡什么、想買什么。它不僅能算出我們申請哪份工作更合適、怎樣的投資理財最適合我們,甚至還能算出來跟誰約會更可能修成正果!
(《21世紀的21堂課》現(xiàn)場簽售火熱。Photo credit:微子)
當算法可以做出比我更好的決定之際,再跟生物學研究結合起來,它當然就可以黑入我的大腦,在我不知不覺之際,悄無聲息地背叛我,尤其是目前我們在數(shù)據(jù)隱私、安全和倫理上還存在這么多問題,這不是非常危險嗎?
李飛飛:首先,人工智能的誕生就是從機器的算法與生物學,確切的說是腦神經(jīng)學的對話和融合開始的。尤其是機器學習,它就是從模擬大腦的神經(jīng)網(wǎng)絡的。
其次,人工智能和生物醫(yī)療的融合目前在應用層面上已經(jīng)產(chǎn)生了非常積極的作用,尤其是在醫(yī)藥和診斷等改善人們的醫(yī)療健康領域,兩者深入融合將更多的造福人類。
此外,AI目前的發(fā)展帶來的倫理、隱私和工作等多個社會問題已經(jīng)被納入了科學研究的視野和范圍。斯坦福“以人為本”AI研究院應對這些挑戰(zhàn)的一個解決方案是,重構我們下一代人工智能教育,尤其是我們將社會學家、心理學家、哲學家和AI科學家等多個領域的科學家們放到一起來研究,就是為了能更好的處理這些問題。
AI 眼里的愛情,和一場流感又有什么區(qū)別?
“愛” 這個永恒的話題,從石器時代被人類一直討論到今天,AI 時代也不例外。你害怕 AI 會黑入你的大腦,控制和操縱你的一切意志,那么,愛難道也可以被 “黑” 嗎?
這就要從 “愛” 的定義談起。
赫拉利:那要看你怎么定義 “愛” 。你覺得 AI 會愛嗎?擁有意識嗎?難道說,非人類的組織器官就無法識別和表達愛嗎?
(圖自網(wǎng)絡,版權屬于原作者)
對 AI 來說,黑入愛、黑入意識的門檻可能是非常低的。如果你說的是愛情,從生物學的角度看,愛情的產(chǎn)生也不過是一連串的身體內(nèi)的生物化學反應,荷爾蒙會變化,情緒和心跳會變化,使用的語言和動作會變化。如果機器的算法解碼了愛情的這條生物化學反應鏈條,那么所謂的 “愛情”跟一場流感有什么區(qū)別嗎?
李飛飛:你這個結論里面有兩個假設,第一,你假設我們現(xiàn)在的人工智能是如此之強大,強大到不可思議。它不僅能預測和判斷我們的金融消費行為,還能預測到人類的愛和意識這個層次。這種 AI 離我們這個時代還很遠、很遠…… 我不知道我們還需要多少代人才能實現(xiàn)。
第二,你假設只有 AI 這種技術在未來一家獨大,強大到凌駕于一切。事實上,過去,現(xiàn)在和未來,都有很多種其他科技和AI同時發(fā)展,有的技術甚至比AI還要強大。
所有的技術都有這樣的雙刃劍,落入壞人之手,就將危險人類社會和文明,這種例子在其他科技領域過去發(fā)生過,以后也可能會發(fā)生,AI 也不例外,它可能誤入壞人之手的負面影響不該被單獨夸大。最重要的是,在應對 AI 的發(fā)展和可能的負面影響時,我們要把其他科技領域的玩家都一起帶進來看,一起來面對和解決,因為它們也會在塑造我們的未來里扮演重要角色。
AI 會把你 “賣” 給廣告公司嗎?
赫拉利:另一個很重要的問題是,現(xiàn)在的 AI 并不透明,我們常常在不經(jīng)意間就給了 AI 大量關于我們自己的數(shù)據(jù),而且我們也不知道它到底在對我們做什么。如果 AI 比我自己更了解自己,但它不跟我分享信息,而是跟廣告商、大公司、政府組織聯(lián)合來利用我,怎么辦?
比如我現(xiàn)在去銀行貸款,銀行會通過一個非常復雜的、涉及幾千個數(shù)據(jù)處理的軟件系統(tǒng),來決定能不能借給我錢、借給我多少錢。但是,這個過程根本沒辦法解釋,它就是一堆代碼和數(shù)據(jù),它直接給我一個結論,請問現(xiàn)在有多少人是沒辦法弄懂銀行這套系統(tǒng),就直接按照它的結論來操作的?
李飛飛:這正是為什么我們斯坦福 “以人為本” AI 研究院設定了幾個核心的研究原則。其中一個很重要的原則,就是我們會更注重能夠更好解釋或反應人類智能的 AI 技術的發(fā)展,比如 “可解釋AI (explainable AI)” 以及 對數(shù)據(jù)庫的依賴更少的機器學習方法,比如直接從人類的經(jīng)驗、創(chuàng)造性和學習方式得到啟發(fā),更接近人類的人工智能技術。
(斯坦福 “以人為本” AI 研究院聯(lián)合主任 李飛飛 圖自網(wǎng)絡,版權屬于原作者)
“可解釋 AI” 的軟件在生物醫(yī)學和法律、金融等多個領域應用的潛能如此之大。你提到的數(shù)據(jù)不透明,決策不透明的過程將是有望被AI來解釋清楚的。反過來說,如果AI可以更好的解釋和呈現(xiàn)一個決策過程,那很多我們以往沒辦法量化的事情以后就無法來弄虛作假了。
另一個原則,是我們會和跨學科的科學家們以及政策制定者,企業(yè)家們一起工作,更好定義和應對 AI 會引發(fā)的隱私、倫理乃至政治和經(jīng)濟問題。目前,我們已經(jīng)有超過 200 多位斯坦福的學者參與其中了。
而且,AI 本身也可以用于正面的解決一些以往沒法解決的社會挑戰(zhàn)和問題。比如,機器學習可以通過算法來“反偏見”,它可以分析電影中男性的數(shù)量和呈現(xiàn)時間,與女性做對比,來證明到底有沒有性別偏見。這種級別的分析是人類無法做到的。
赫拉利:我覺得一個解決方法是,我們每個人要更好的更多的了解自己,不要讓 AI 比我們更了解自己。只要 AI 不如我們自己了解自己,AI 替我們做主的威脅就會小很多... 不過話說回來,我們很多人真的一點也不了解自己。
AI 全球競賽,或比核競賽更可怕
赫拉利:另一個讓我擔心的是,AI 發(fā)展是一個少數(shù)國家,尤其是中、美兩國占主導優(yōu)勢的技術領域。很多其他非洲國家、亞洲國家,乃至歐洲國家在這個領域已經(jīng)遠遠落后于亞馬遜或者騰訊。
(中美兩國多方面領跑全球 AI。圖自 Statista,版權屬于原作者)
而且更可怕的是,在 AI 的發(fā)展中,競爭的感覺越來越濃,而不是合作。如果 AI 演變成一場全球科技競爭,那是對全人類的一個壞消息。
從經(jīng)濟上講,這種 AI 發(fā)展不平衡、一兩家獨大的局勢,將很可能以數(shù)據(jù)殖民的方式重現(xiàn)19世界的全球殖民地統(tǒng)治。
比如,19世紀時的印度是英國的殖民地,它的經(jīng)濟是圍繞殖民地的需求來設計的,只不過它當時供應給英國的是茶園和鴉片,現(xiàn)在它可能供應給加州的是它的大量數(shù)據(jù)和基礎的數(shù)據(jù)處理服務,然后這些東西流到加州后,進入那些創(chuàng)業(yè)公司,變現(xiàn)為走向全世界的一個算法或服務。
從政治上講,那些AI發(fā)展落后的國家會在這種競爭里變得更緊張,因為,即便我已經(jīng)出局了,我也不希望任何一家做大啊!如果有一天美國的人工智能世界第一,只要它是只服務于美國的利益的,我怎么能夠信任它提供的服務呢?而且,一旦有天加州的AI技術和算法能取代那些現(xiàn)在靠便宜產(chǎn)品生存的國家,那些國家的經(jīng)濟甚至會引發(fā)崩潰。
所以我說,AI 的全球競賽,將比核競賽更可怕。因為,雖然核武器大家都在競賽,但至少只是研發(fā)出來作為底氣壯膽,沒有人會隨便去用的。但是 AI 就不一樣了,它是發(fā)展出來就馬上會被用,不管三七二十一。
李飛飛:如今的科學在全球范圍內(nèi)的合作和交流非常頻繁,超出你想象,AI 領域更是一個跨國界的合作研究和應用社區(qū),僅在斯坦福,每年的全球合作產(chǎn)生的科學論文數(shù)量就多不勝舉,還有GitHub 這種全球的開源服務社區(qū)。
所以,你所說的這種情況,在全球交流和合作如此頻繁的當下,不太會發(fā)生。確實很多AI現(xiàn)在資源是在少數(shù)大公司里,但不是全部,其實學術界和很多獨立研究機構在 AI 發(fā)展里都有自己的獨立角色。
而且,那些目前在這個領域落后的國家,還是有很多機會和時間去思考、制定自己的數(shù)據(jù)戰(zhàn)略和AI 發(fā)展戰(zhàn)略的。
結語
今天的 AI 科學家們要處理的實在太多了,除了技術領域研究,還要回答道德、倫理、隱私、經(jīng)濟、政治,乃至愛情等方方面面的問題。就像李飛飛在對話中開的一個玩笑,“科學家們真的很忙,我羨慕哲學家們,他們可以只提出問題來,用幾千年來反復討論卻沒有個答案,而我們科學家們卻要馬上回答。”
這讓記者想到幾天前采訪一個生物科學家時,他提到的觀點:“我們科學家受的解決研究問題的學術訓練,你提到的基因編輯引發(fā)的這些倫理和社會問題,我怎么知道答案呢,你應該去問那些領域的專家,或者干脆去問你們每個人自己:這真的是我想要的嗎?”
你對 AI 持什么態(tài)度?樂觀、悲觀、兩者兼有?你認為 AI 會比你的家人、密友、甚至伴侶更了解你嗎?如果未來某天 AI 想一手包辦你的工作、理財、買房買車、相親擇偶等人生大事,你敢相信它嗎?歡迎留言討論!
-
神經(jīng)網(wǎng)絡
+關注
關注
42文章
4771瀏覽量
100720 -
AI
+關注
關注
87文章
30763瀏覽量
268907 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238290
原文標題:李飛飛論戰(zhàn)《未來簡史》作者赫拉利!2019 年最精彩 AI 論戰(zhàn)
文章出處:【微信號:smartman163,微信公眾號:網(wǎng)易智能】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論