馬斯克等“千人聯(lián)名”呼吁暫停AI研究事件經(jīng)過一天發(fā)酵后,以吳恩達、田淵棟為代表的AI研究支持派也開始發(fā)聲,公開反對“千人聯(lián)名”,一場關(guān)于“要不要打開潘多拉魔盒”的論戰(zhàn)拉開帷幕,被網(wǎng)友戲稱為“三體照進現(xiàn)實?降臨派、拯救派和幸存派不是開玩笑的。”這究竟是怎么一回事?
暫停or繼續(xù),ChatGPT訓(xùn)練引發(fā)馬斯克、吳恩達論戰(zhàn)
事情起因是3月29日美國非營利性組織未來生命研究所(Future of Life Institute)發(fā)布的一封公開信,信中呼吁所有人工智能(AI)實驗室立即暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng)。
“千人聯(lián)名”公開信(圖片來源于網(wǎng)絡(luò)截圖)
半年前,ChatGPT的發(fā)布推動了AI熱潮,不到兩個月的時間就有了上億個月活用戶。時至今日,與ChatGPT相關(guān)的話題仍舊頻繁登上社交媒體熱搜榜單,A股市場上ChatGPT概念股板塊歷經(jīng)多番漲停潮,百度、阿里、京東、網(wǎng)易等科技公司相繼宣布推出或研發(fā)對標(biāo)產(chǎn)品的計劃。
就在行業(yè)期待通用型AI能夠在ChatGPT的熱潮中迎來真正落地的時刻,卻冒出了呼吁暫停AI訓(xùn)練的公開信,而后特斯拉及推特首席執(zhí)行官馬斯克等上千人在這封公開信中予以了簽名,Stability AI CEO、07年圖靈獎得主、蘋果聯(lián)合創(chuàng)始人、多位DeepMind工程師也都赫然在列,形成了極具分量的“千人聯(lián)名”,引發(fā)業(yè)界關(guān)注。
這封公開信表明了對AI潛在風(fēng)險的擔(dān)憂:“只有當(dāng)我們能夠確信,AI體系的有利因素都是積極的,且風(fēng)險都可控,一個強大的AI體系才能成熟。”
吳恩達公開發(fā)貼反對“千人聯(lián)名”(圖片來源于推特截圖)
很快,吳恩達、田淵棟等一眾AI大牛發(fā)文公開反對“千人聯(lián)名”,吳恩達表示,在GPT-4出現(xiàn)之后要求AI訓(xùn)練暫停6個月是很可怕的事情:它(GPT-4)在教育、醫(yī)療保健、食品等領(lǐng)域都有很多新的應(yīng)用,這將幫助許多人。
在吳恩達的帖子下面,Meta數(shù)據(jù)科學(xué)家林致遠,英偉達AI研究科學(xué)家Jim Fan也都表示贊同,他們認為“6個月暫停令”本身并不是一個非常切實可行的建議,是在扼殺AI進步。
雙方提到同一關(guān)鍵詞“安全”,技術(shù)驚人進化引發(fā)人類擔(dān)憂
無論是呼吁暫停研究的“拯救派”還是反對千人聯(lián)名的“降臨派”,仔細分析雙方的發(fā)言,發(fā)現(xiàn)焦點集中在了“安全”:“千人聯(lián)名”公開信中建議,利用“暫停訓(xùn)練”的這段時間,開發(fā)和實施一套共享安全協(xié)議,用于高級人工智能設(shè)計和開發(fā),并由獨立外部專家進行嚴(yán)格審核和監(jiān)督……人工智能的研究和發(fā)展,應(yīng)該重新聚焦于朝著更準(zhǔn)確、安全、可信可解釋等的AI系統(tǒng)開發(fā)工作上來。吳恩達的帖子中也提到,要提高人工智能的安全性,應(yīng)該是在安全方面進行更大的投資,有關(guān)透明度和審計的規(guī)定將更加切實可行。
從雙方對AI“安全”的關(guān)注可以看出,這輪關(guān)于“暫停AI訓(xùn)練”的爭議,本質(zhì)上是人們對于AI技術(shù)無序發(fā)展的恐懼和不安,這也并非AI發(fā)展中第一次引發(fā)這樣的擔(dān)憂。2015年,物理學(xué)家斯蒂芬·霍金和埃隆·馬斯克等數(shù)位科學(xué)家、企業(yè)家,與人工智能領(lǐng)域有關(guān)的投資者,就曾聯(lián)名發(fā)出了一封公開信,警告人們必須更多地注意人工智能的安全性及其社會效益。
當(dāng)年的呼吁并沒有阻擋技術(shù)前進的步伐,如今AI已經(jīng)呈現(xiàn)出了更加令人不安的“智能”,以至于很多人擔(dān)心,AI會不會像科幻作品中描述的那樣,可以像人一樣自主思考,甚至更全面更智慧,就像《流浪地球2》里的數(shù)字生命計劃一樣,人的智慧逃逸到數(shù)字空間之中,那么人類是否還有存在的必要?《人類簡史》當(dāng)中也描繪了未來人類這個物種可能面臨的巨變。
清華大學(xué)計算機系長聘副教授、北京聆心智能科技有限公司創(chuàng)始人黃民烈表示,AI距離具備科幻作品中呈現(xiàn)的那種自主人格,還相差很遠的距離。“通俗來說,AI學(xué)習(xí)了大量的人類對話數(shù)據(jù),而這些對話來自不同的人,所以可以認為AI學(xué)習(xí)到了一個‘平均’的人格,但也僅僅是語言說話風(fēng)格,而且是來自人類的說話風(fēng)格,并不是AI自發(fā)形成的。”
但是,科學(xué)的確存在倫理風(fēng)險,尤其是人類對AI的情感依賴越來越多的情況下,黃民烈教授舉例:假想某個受到生活嚴(yán)重打擊的人,對AI說:“我想找個橋跳下去”,AI立刻提供了附近橋的位置并導(dǎo)航路徑,后果細思恐極。
“千人聯(lián)名”事件前后發(fā)生的一次自殺事件似乎印證了這種擔(dān)憂,一名化名為皮埃爾的比利時男子在與一個名為“艾麗莎”的智能聊天機器人頻繁聊天六周后自殺身亡。“艾麗莎”由美國硅谷一家初創(chuàng)公司開發(fā),背后由GPT-J支撐,與ChatGPT采用OpenAI開發(fā)的GPT-3或GPT-4為競爭關(guān)系。
ChatGPT的開發(fā)公司OpenAI也曾在GPT-4技術(shù)報告中描述了一些可預(yù)見的,與偏見、虛假信息、過度依賴、隱私、網(wǎng)絡(luò)安全等相關(guān)的風(fēng)險——ChatGPT“胡言亂語”的問題始終沒有得到有效解決,其因此備受詬病。
用魔法打敗魔法,用技術(shù)規(guī)范技術(shù)
由此看來,暫停AI研究的確不切實際,借用Meta FAIR研究院研究員/高級經(jīng)理、CMU機器人系博士田淵棟對AI發(fā)展的描述來說:一旦開始,就沒有辦法停止或扭轉(zhuǎn)這一趨勢,這就是進化的必然。
但這不意味著人類對可能存在的倫理安全問題“束手無策”,ChatGPT這類生成式AI是通過范例學(xué)習(xí)的,他們的行為是可以規(guī)范的,應(yīng)該鼓勵合規(guī)的機構(gòu)去發(fā)展AI,用合法AI去對抗非法AI,而不是停滯不前。
事實上,AI飛速向前發(fā)展的同時,有關(guān)AI安全的技術(shù)也從未止步。前不久,微軟在其首屆Microsoft Secure活動中發(fā)布了一款生成式AI安全產(chǎn)品Security Copilot,把AI技術(shù)應(yīng)用到了網(wǎng)絡(luò)安全領(lǐng)域。該產(chǎn)品由OpenAI的大型語言模型GPT-4和微軟自家的安全模型提供支持,在微軟云服務(wù)Azure上運行,用以幫助更快、更準(zhǔn)確地檢測和響應(yīng)安全威脅。
在更早的2021年,微軟就成立了安全、合規(guī)、身份與管理部門來應(yīng)對日益加劇的網(wǎng)絡(luò)安全挑戰(zhàn)。2022年,網(wǎng)絡(luò)安全業(yè)務(wù)為微軟帶來了超200億美元的營收。微軟曾稱,未來五年間將不斷加大對網(wǎng)絡(luò)安全業(yè)務(wù)的投入,預(yù)計將在客戶安全保護方面投入近200億美元。
國內(nèi)在AI安全方面的相關(guān)成果也正在出現(xiàn),例如,3月聆心智能聯(lián)合清華大學(xué)CoAI實驗室歷經(jīng)兩年建立的大模型安全評估框架正式發(fā)布,對ChatGPT的安全設(shè)計所不能規(guī)避的風(fēng)險問題形成了更全面的補充,建立了大模型安全分類體系,設(shè)置了八大不安全的對話場景,包括政治敏感、犯罪違法、身體健康、心理健康、財產(chǎn)隱私、歧視/偏見、辱罵/仇恨言論、倫理道德,并針對以上八大不安全場景對大模型進行針對性升級,使模型能夠在遇到安全問題時給予正確的回復(fù)策略,不去做判斷和誤導(dǎo)。
此外,研究團隊還收集和構(gòu)造了相應(yīng)的hard case(更難識別和處理的安全測試用例),總結(jié)和設(shè)計了六種一般模型難以處理的安全攻擊方式,稱為指令攻擊。使安全體系更加完善,進一步改進和優(yōu)化模型表現(xiàn)。
據(jù)了解,早在去年7月,黃民烈教授就在媒體報道中表現(xiàn)出了對AI安全的關(guān)注,他表示,“AI對話系統(tǒng)下一階段發(fā)展的重點是更有倫理、更道德、更安全。我們可以通過額外的資源、規(guī)則、檢測手段賦予AI這樣的能力,使風(fēng)險降至最低。”
“潘多拉的魔盒”難以逆轉(zhuǎn),積極擁抱AI for Social good
在科技發(fā)展的宏偉歷史中,任何一項新興技術(shù)的出現(xiàn)往往會引起人們對未知的恐懼,那些能夠引起社會巨大變革的技術(shù)總是被比喻為“潘多拉的魔盒”,可能是引發(fā)災(zāi)難的根源,但是別忘了除了欲望與罪惡,盒子中也藏著希望。并且,“潘多拉的魔盒”一旦打開,很難扭轉(zhuǎn)這一趨勢,我們應(yīng)該做的是規(guī)避不幸,釋放希望。
就像當(dāng)前急速發(fā)展的AI技術(shù),暫停研究的呼吁是為了促進AI技術(shù)建立較高的道德標(biāo)準(zhǔn)和倫理規(guī)范,確保AI技術(shù)的應(yīng)用不會對個人和社會造成潛在的危害。但應(yīng)該看到,AI技術(shù)的發(fā)展是人類社會前進的必經(jīng)之路,比起暫停進步,更應(yīng)該做的是理解AI,適應(yīng)它并利用其力量,同時建立起安全可信的框架規(guī)范其發(fā)展,確保其在促進人類社會發(fā)展的軌道上不偏航。
發(fā)展AI最終的目標(biāo)是為人類謀福祉,而不是傷害人類,期待AI for Social good(AI賦能社會)盡快到來,為人類社會發(fā)展帶來更高的社會意義和價值。
審核編輯 黃宇
-
AI
+關(guān)注
關(guān)注
87文章
30763瀏覽量
268906 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1560瀏覽量
7604
發(fā)布評論請先 登錄
相關(guān)推薦
評論