不久前兩個世界頂級人工智能實驗室Google Brain和DeepMind推出了一個可以閱讀唇語的系統。這個由Alphabet旗下的研究人設計的系統可以在很多時候超過專業的唇語解讀者。在對研究人員收集的視頻進行唇語解讀時,該系統的錯誤率僅為40%,而專業人員為86%。
在一篇解釋該技術的論文中,研究人員將其描述為一種幫助人們處理語言障礙的方法。他們認為,在理論上,該系統可以讓人們通過蠕動嘴唇進行交流。
但研究人員沒有討論另一種可能性——更好的監控。唇讀系統是政策制定者所稱的“雙刃劍技術”,它反映了從頂級人工智能實驗室中出現的許多新技術。自動生成視頻的系統可以改善電影創作,但同時也會被用于假新聞的制作。自拍式無人機可以在足球比賽中捕捉視頻,也可以在戰場上殺死敵人。
現在,46名學者和其他研究人員組成了一個團隊,稱為計算機學術的未來(the Future of Computing Academy),它正敦促研究界重新思考分享新技術的方式。他們認為,在發表新的研究成果時,科學家們應該解釋它如何以消極和積極的方式影響社會的。
美國西北大學教授布倫·特赫克特認為:“計算機行業可能會變得像石油和煙草行業一樣,受到老板和資本的驅使而進行技術研究,而非考慮其真實的社會影響;不過我們也可以選擇成為開始更廣泛思考的一代人。”
在發布新成果時,研究人員很少討論負面影響。這部分是由于他們希望將其工作放在積極的光環之下,另一部分是因為他們更關心開發技術而非使用技術。
正如許多領先的人工智能研究人員進入像谷歌大腦和DeepMind這樣的企業實驗室時,在高額薪資和股票期權的利益下他們必須保證雇主的利益。上市公司,特別是像谷歌這樣的消費巨頭,很少討論他們工作的潛在缺點。
赫克特先生和他的同事們正呼吁同行評審期刊拒絕那些沒有對技術潛在的缺點進行討論的論文。即便處在目前技術行業進行罕見的自我反思的時刻,該倡議也可能很難被人接受。許多研究人員擔心審稿人會因為討論技術缺點而拒絕論文,因而他們對是否接受該倡議猶豫不決。
但還是有越來越多的研究人員試圖揭示人工智能的潛在危害。今年2月,來自美國和英國的一群著名研究人員和政策制定者發表了一篇專門論述惡意使用人工智能的文章。還有的人正在從另一個角度來構建技術,展示人工智能可能會出錯的方面。而且隨著更危險的技術的出現,人工智能界可能不得不重新考慮其開放研究的承諾。有人認為,有些事情最好是關起門來。
麻省理工學院媒體實驗室的研究員馬特·格羅最近建立了一個名為暗色天使(Deep Angel)的系統,它可以從照片中刪除人和物體。這是一個計算機科學實驗兼作一個哲學問題,目的在于,在假新聞時代激發圍繞人工智能角色的對話。格羅先生說:“我們非常了解假新聞的影響力,現在的問題是,我們如何處理這個問題?”
如果機器可以生成可信的照片和視頻,我們可能不得不改變我們查看互聯網上內容的方式。
谷歌的唇讀系統可以幫助監控嗎?也許現在還不能實現。在“訓練”其系統的同時,研究人員使用了正面拍攝特寫鏡頭的視頻。牛津大學的研究員Joon Son Chung表示,來自街道頭頂攝像機的圖像“還達不到可以進行唇讀的標準”。在一份聲明中,谷歌發言人先是提出與上面差不多的觀點,然后才指出該公司的“人工智能原則”,聲稱不會設計或共享“違反國際公約”的可用于監視的技術。
但攝像機變得越來越小,價格也越來越便宜,研究人員對人工智能的不斷改進驅動了這些類似于唇讀系統技術的產生。谷歌的論文只是近期諸多進展中的一個。中國的研究人員剛剛推出了一個旨在利用類似技術在“野外”閱讀唇語的項目,它能適應不同的光照條件和圖像質量。倫敦帝國理工學院的研究員Stavros Petridis承認,即便使用智能手機的相機,這種技術最終也可用于監控。他稱:“這是不可避免的。今天,無論你在構建什么,都既可能被善用,也可能被誤用。”
AI技術和過去的所有技術革命一樣,這種全新的強大的力量在為社會注入活力的同時,也會帶來各種社會問題。作為AI浪潮核心的知識分子和工程師們,應該也必須為自己創造的知識體系擔負起應有的責任,力求造福世界,也應極力避免技術的濫用和誤用帶來的損害。同時企業在追求利潤的同時,也應該慎重地考量技術和使用的方式所帶來的影響,保證風險和技術的使用是合理可控的,這也是技術企業承擔社會責任的一部分。
-
AI
+關注
關注
87文章
31088瀏覽量
269415 -
人工智能
+關注
關注
1792文章
47408瀏覽量
238914 -
ai技術
+關注
關注
1文章
1281瀏覽量
24349
原文標題:如何規避AI帶來的技術風險?研究人員正在做這些努力...
文章出處:【微信號:thejiangmen,微信公眾號:將門創投】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論