電子發燒友早八點訊:雖然史蒂夫-霍金開設了微博,但對大部分中國人來說,能與他直接交流的機會還是非常罕見。畢竟,我們多是從編譯的外媒報道中,窺見這位科學巨擘思想的一二,而中文媒體的專訪更是寥寥無幾。
新浪科技聯合長城會發起了“科學復興 對話霍金”的活動,獲得與霍金面談的機會,短短一周時間內,超過700萬網友瀏覽討論了該活動。我們也最終收集到了上萬條對霍金提出的問題,與長城會創始人文廚遠赴劍橋面見了這位當今世界最偉大的物理學家、宇宙學家,霍金講述了人工智能可能帶給人類的變化及其對人生的態度。
霍金近幾年對人工智能十分關注,多次發表對人工智能發展的看法。在今天開幕的GMIC 2017北京大會上,霍金發表演講稱:“強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對于好壞我們仍無法確定,現在人類只能竭盡所能,確保其未來發展對人類和環境有利,人類別無選擇。”
人工智能的研究與開發現在正以極快的速度迅速推進,霍金稱:“也許我們所有人都應該暫停片刻,把我們的研究重復從提升人工智能能力轉移到最大化人工智能的社會效益上面。”基于這樣的考慮,美國人工智能協會(AAAI)于2008至2009年,成立了人工智能長期未來總籌委員會(Presidential Panel on Long-Term AI Futures),他們近期在目的導向的中性技術上投入了大量的關注,確保人工智能系統須要按照人類的意志工作。
霍金提及聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數以百萬計的工作崗位。他稱:“文明所提產生的一切都是人類智能的產物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。因此,它遵循了‘計算機在理論上可以模仿人類智能,然后超越’這一原則。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。”
演講中,霍金特別提到了,2015年1月,霍金與和SpaceX太空探索技術公司和特斯拉CEO埃隆-馬斯克等其他人工智能專家簽署的一份關于人工智能的公開信,目的提倡就人工智能對社會所造成的影響做認真的調研。在這之前,埃隆-馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果。霍金稱這份公開信號召展開可以阻止潛在問題的直接研究,同時也收獲人工智能帶給人類的潛在利益,致力于讓人工智能的研發人員更關注人工智能安全。
霍金辦公室的一角霍金辦公室的一角
在過去的20年里,人工智能一直專注于圍繞建設智能代理所產生的問題,也就是在特定環境下可以感知并行動的各種系統。在這種情況下,智能是一個與統計學和經濟學相關的理性概念。通俗地講,這是一種做出好的決定、計劃和推論的能力。基于這些工作,大量的整合和交叉孕育被應用在人工智能、機器學習、統計學、控制論、神經科學、以及其它領域。共享理論框架的建立,結合數據的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音識別、圖像分類、自動駕駛、機器翻譯、步態運動和問答系統。
霍金解釋:“隨著這些領域的發展,從實驗室研究到有經濟價值的技術形成良性循環。哪怕很小的性能改進,都會帶來巨大的經濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智能的研究正在穩步發展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產生的一切,都是人類智能的產物;我們無法預測我們可能取得什么成果,當這種智能是被人工智能工具放大過的。但是,正如我說過的,根除疾病和貧窮并不是完全不可能,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規避風險是非常重要的。”
人工智能的迅速發展,霍金稱對短期的擔憂在無人駕駛方面、智能的致命性自主武器、由人工智逐漸可以解讀大量監控數據而引起對隱私的擔憂以及如何管理因人工智能取代工作崗位帶來的經濟影響,而長期的擔憂則是對人工智能系統失控的潛在風險,隨著不遵循人類意愿行事的超級智能的崛起,強大的系統是否會威脅到人類。霍金擔憂當前控制人工智能技術的工具,例如強化學習,還不足以解決上述問題。因此,人類需要進一步研究來找到和確認一個可靠的解決辦法來掌控這些問題。
霍金曾稱人工智能的全方位發展可能招致人類的滅亡,今年早些時候,還和一些來自世界各國的科學家共同在聯合國會議上支持其對于核武器的禁令,因為他覺得作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,并發現它們的影響比最初預想的更加可怕。而對于人工智能,霍金同樣覺得可能是人類文明史的終結,除非人類學會如何避免危險。
對于災難的探討并非危言聳聽,霍金希望人類要認清自己在影響當前技術的未來研發中的位置,呼吁國際條約的支持或者簽署呈交給各國政府的公開信,希望科技領袖和科學家極盡所能避免不可控的人工智能的崛起。
一個事物的好壞都有兩面性,霍金表達完對人工智能的擔心后,也表示人工智能的成功同樣也可能是人類文明史上最大的事件,他稱:“當人類的頭腦被人工智能放大以后,也許在這種新技術革命的輔助下可以解決一些工業化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。”為此霍金去年在英國劍橋建立了一個新的機構“利弗休姆智能未來中心”,試圖解決一些在人工智能研究快速發展中出現的尚無定論的問題。
演講最后,霍金稱人類還應該扮演一個角色,確保下一代不僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的世界,“我們需要跳出‘事情應該如何’這樣的理論探討,并且采取行動,以確保他們有機會參與進來。我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。我祝福你們。”
以下為霍金回答中國網友與科技大咖、科學家、投資家的問題實錄:
創新工場的CEO李開復提問:互聯網巨頭擁有巨量的數據,而這些數據會給他們各種以用戶隱私和利益換取暴利的機會。在巨大的利益誘惑下,他們是無法自律的。而且,這種行為也會導致小公司和創業者更難創新。您常談到如何約束人工智能,但更難的是如何約束人本身。您認為我們應該如何約束這些巨頭?
霍金:據我了解,許多公司僅將這些數據用于統計分析,但任何涉及到私人信息的使用都應該被禁止。會有助于隱私保護的是,如果互聯網上所有的信息,均通過基于量子技術加密,這樣互聯網公司在一定時間內便無法破解。但安全服務會反對這個做法。
獵豹移動CEO傅盛提問:靈魂會不會是量子的一種存在形態?或者是高維空間里的另一個表現?
霍金:我認為近來人工智能的發展,比如電腦在國際象棋和圍棋的比賽中戰勝人腦,都顯示出人腦和電腦并沒有本質差別。這點上我和我的同事羅杰-彭羅斯正好相反。會有人認為電腦有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來世聯系在一起。我認為這是一個童話故事。
百度總裁張亞勤提問:人類觀察和抽象世界的方式不斷演進,從早期的觀察和估算,到牛頓定律和愛因斯坦方程式, 到今天數據驅動的計算和人工智能,下一個是什么?
霍金:我們需要一個新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人聲稱這是弦理論,但我對此表示懷疑,目前唯一的推測是,時空有十個維度。
斯坦福大學物理學教授張首晟提問:如果讓你告訴外星人我們人類取得的最高成就,寫在一張明信片的背面,您會寫什么?
霍金:告訴外星人關于美,或者任何可能代表最高藝術成就的藝術形式都是無益的,因為這是人類特有的。我會告訴他們哥德爾不完備定理和費馬大定理。這才是外星人能夠理解的事情。
長城會創始人文廚提問:我們希望提倡科學精神,貫穿GMIC全球九站,請您推薦三本書,讓科技界的朋友們更好的理解科學及科學的未來。
霍金:他們應該去寫書而不是讀書。只有當一個人關于某件事能寫出一本書,才代表他完全理解了這件事。
中國網友提問:您認為一個人一生中最應當做的一件事和最不應當做的一件事是什么?
霍金:我們絕不應當放棄,我們都應當盡可能多的去理解這個世界。
中國網友提問:人類在漫漫的歷史長河中,重復著一次又一次的革命與運動。從石器、蒸汽、電氣……您認為下一次的革命會是由什么驅動的?
霍金:我認為是計算機科學的發展,包括人工智能和量子計算。科技已經成為我們生活中重要的一部分,但未來幾十年里,它會逐漸滲透到社會的每一個方面,為我們提供智能的支持和建議,在醫療、工作、教育和科技等眾多領域。但是我們必須要確保是我們來掌控人工智能,而非它(掌控)我們。
音樂人、投資者胡海泉提問:如果星際移民技術的成熟窗口期遲到,有沒有完全解決不了的內發災難導致人類滅絕?拋開隕星撞地球這樣的外來災難。
霍金:是的。人口過剩、疾病、戰爭、饑荒、氣候變化和水資源匱乏, 人類有能力解決這些危機。但很可惜,這些危機還嚴重威脅著我們在地球上的生存,這些危機都是可以解決的,但目前還沒有。
聲明:電子發燒友網轉載作品均盡可能注明出處,該作品所有人的一切權利均不因本站轉載而轉移。作者如不同意轉載,即請通知本站予以刪除或改正。轉載的作品可能在標題或內容上或許有所改動。
評論
查看更多