這幾天,AI人臉識(shí)別技術(shù)在不斷“闖禍”。
視頻換臉App ZAO在朋友圈刷屏,很快就因?yàn)橛脩魠f(xié)議存在霸王條款、涉嫌侵犯肖像權(quán)引發(fā)用戶恐慌等問題,引發(fā)巨大爭議,先是被微信封殺,接著工信部就ZAO App網(wǎng)絡(luò)數(shù)據(jù)安全問題開展問詢約談,要求其嚴(yán)格按照國家法律法規(guī)以及相關(guān)主管部門要求,進(jìn)行整改,依法收集用戶信息并使用,規(guī)范協(xié)議條款,強(qiáng)化網(wǎng)絡(luò)數(shù)據(jù)和用戶個(gè)人信息安全保護(hù)。ZAO隨后修改用戶協(xié)議并公開道歉。
另一家AI獨(dú)角獸則因在校園試點(diǎn)“基于人臉識(shí)別的教室監(jiān)控”而引發(fā)輿論大嘩,相關(guān)圖片顯示,對應(yīng)系統(tǒng)可以監(jiān)控學(xué)生在課堂的一舉一動(dòng),舉手次數(shù)、打瞌睡、開小差甚至注意力是否集中,都可以被機(jī)器識(shí)別得一清二楚,并進(jìn)行可視化呈現(xiàn)。盡管對應(yīng)的技術(shù)在智能教育上呈現(xiàn)出廣闊的應(yīng)用前景,但人們卻并不買賬,而是擔(dān)心“監(jiān)控”下學(xué)習(xí)的精神壓力和隱私風(fēng)險(xiǎn)。隨后,這家AI獨(dú)角獸回應(yīng)稱,網(wǎng)絡(luò)上出現(xiàn)的一幅課堂行為分析圖片,為技術(shù)場景化概念演示,意思是,尚未應(yīng)用。
不論是ZAO的視頻換臉技術(shù),還是教室監(jiān)控技術(shù),本身都不新鮮。ZAO用的是開源技術(shù),“教室監(jiān)控技術(shù)”一直都是AI教育明星公司們主打的一項(xiàng)技術(shù)。一夜之間備受關(guān)注,原因在于,AI技術(shù)發(fā)展太快,應(yīng)用門檻變低,開始來到了我們身邊。
AI技術(shù)的副作用正在出現(xiàn)
算法、算力和數(shù)據(jù)經(jīng)歷幾年積累后,AI威力已大不相同。百度在前不久的云智峰會(huì)上提出,AI工業(yè)化時(shí)代來了。馬化騰在世界人工智能大會(huì)上表示:人工智能在未來十年會(huì)迎來高速發(fā)展。AI技術(shù)到了大規(guī)模落地到各行各業(yè)的關(guān)鍵時(shí)刻,是真的已經(jīng)爆發(fā)了。
AI技術(shù)爆發(fā)帶來的問題,是人們始料未及的,人類沒有做好準(zhǔn)備。
單單是一個(gè)人臉識(shí)別,就有大量的值得人們焦慮甚至恐懼的問題:如果換臉技術(shù)被用于惡意合成***,可能會(huì)給當(dāng)事人帶來類似于網(wǎng)絡(luò)暴力這樣的滅頂之災(zāi);如果人臉識(shí)別技術(shù)被任何人輕松掌握,隱私對每個(gè)人來說將會(huì)成為奢侈品;如果人臉識(shí)別技術(shù)被犯罪分子破解,人們的隱私、財(cái)產(chǎn)甚至人身安全都會(huì)面臨巨大的威脅。
有人說,在AI技術(shù)大規(guī)模應(yīng)用前,到處都有攝像頭,別說公共治安網(wǎng)絡(luò)了,商場、餐廳、公司、小區(qū)都安裝了攝像頭,每輛車上都有行車記錄儀,人臉數(shù)據(jù)一直在被收集。但是,AI技術(shù)普及前你的人臉數(shù)據(jù)一般都沒人關(guān)心,沒人去分析利用,因?yàn)槌杀咎摺6鳤I技術(shù)的核心價(jià)值是可以對數(shù)據(jù)進(jìn)行更有效、更快速和更深度的挖掘,你的人臉數(shù)據(jù)被侵犯的風(fēng)險(xiǎn)大大增加。特別是5G時(shí)代到來,AIoT爆發(fā)后,終端側(cè)數(shù)據(jù)將有可能被實(shí)時(shí)同步到云端或者邊緣側(cè),被AI深度挖掘。
到時(shí)候,你的人臉數(shù)據(jù)將被AI無處不在的監(jiān)控。商場知道你的逛街習(xí)慣,你和誰一起逛街,你習(xí)慣于買什么;餐廳知道你的紀(jì)念日,你和誰約會(huì),你習(xí)慣點(diǎn)什么……你可能會(huì)想,我可以戴著口罩出門,保護(hù)自己的人臉隱私數(shù)據(jù),但是,AI現(xiàn)在已經(jīng)步態(tài)識(shí)別,你怎么遮掩都沒意義。
想想都很可怕。
AI技術(shù)帶來的問題遠(yuǎn)不止于人臉識(shí)別這樣的數(shù)據(jù)隱私問題。
AI技術(shù)會(huì)給網(wǎng)絡(luò)欺詐提供便利,讓“造假”變得更加容易,且難以辨別。
你在約會(huì)App上跟一個(gè)姑娘火熱地聊一個(gè)月,聊得很開心,給她發(fā)紅包、送禮物、獻(xiàn)殷勤,約見面卻被拉黑了,因?yàn)閷Ψ胶芸赡苤皇且粋€(gè)AI虛擬人;
你在直播平臺(tái)給一個(gè)性感妖嬈的妹紙打賞,對方可能不再是遮臉騙錢的喬奶奶,而是直接換臉的摳腳大漢;
你在電商平臺(tái)看到KOC們頗具煽動(dòng)性的點(diǎn)評(píng),也只是AI的即興發(fā)揮;
你接到的騷擾電話不再是推銷員孜孜不倦撥打的,而是AI自動(dòng)撥出,話術(shù)量身定制;
社交平臺(tái)的僵尸粉會(huì)“活”起來,基于AI技術(shù)人模狗樣地發(fā)發(fā)段子,曬曬圖片。
AI技術(shù)會(huì)讓很多人失業(yè),尤其是重復(fù)性強(qiáng)的工作,比如收銀、客服、監(jiān)測、軟件測試工程師。
前段時(shí)間看到一個(gè)新聞,一個(gè)高速公路收費(fèi)站員工集體抗議電子支付,理由是他們第一份工作就是收費(fèi)員,人到中年除了收費(fèi)什么都不會(huì)。AI對就業(yè)崗位的取代尚未大面積開始,“收費(fèi)員”們怎么辦?我們都相信,AI會(huì)增加更多的工作崗位,但算法這樣的AI崗位顯然不適于失業(yè)者。
AI算法是被人訓(xùn)練出來的,人的偏見會(huì)被AI繼承,比如性別歧視、種族歧視、地域歧視。微軟副總裁、人工智能事業(yè)部負(fù)責(zé)人沈向洋曾談到人工智能的“偏見”——你在網(wǎng)絡(luò)搜索“CEO”會(huì)發(fā)現(xiàn),出來的結(jié)果基本上沒有女性,亞洲人面孔很少。
AI技術(shù)被黑客掌握,黑客的攻擊手段會(huì)全面升級(jí)。
去年底,紐約大學(xué)一個(gè)團(tuán)隊(duì)研發(fā)了一個(gè)名為DeepMasterPrints的機(jī)器學(xué)習(xí)工具,其利用生成對抗網(wǎng)絡(luò)(GAN)創(chuàng)造的“萬能指紋”,破解指紋鎖的成功率最高達(dá)到了76%,類似的應(yīng)用還有AI識(shí)別驗(yàn)證碼、AI模擬DDoS攻擊等等。經(jīng)典網(wǎng)絡(luò)安全技術(shù)必須要全面升級(jí),才能實(shí)現(xiàn)對AI攻擊的對抗。
AI工業(yè)化時(shí)代來臨,AI技術(shù)應(yīng)用到各行各業(yè),滲透到人們生活方方面面已是不可阻擋的趨勢,從ZAO和AI教室監(jiān)控引發(fā)的爭議來看,跟大力推動(dòng)AI落地同等重要的是,如何讓AI以正確的方式落地,這意味著“AI倫理”將變得至關(guān)重要。
是時(shí)候重視AI倫理了
倫理指人與人相處的各種道德準(zhǔn)則,AI倫理是人與機(jī)器以及AI時(shí)代人與人相處的道德準(zhǔn)則。
前段時(shí)間,“首例基因編輯嬰兒”事件備受關(guān)注,深圳醫(yī)學(xué)倫理委第一時(shí)間回應(yīng)并啟動(dòng)調(diào)查。在醫(yī)學(xué)行業(yè),倫理對于技術(shù)制約的重要價(jià)值已得到很好的體現(xiàn),AI技術(shù)的高速發(fā)展就跟基因編輯技術(shù)一樣,需要倫理來制約,一些機(jī)構(gòu)和企業(yè)已經(jīng)在探索。
加州大學(xué)伯克利分校、哈佛大學(xué)、劍橋大學(xué)、牛津大學(xué)和一些研究院早已啟動(dòng)AI倫理研究項(xiàng)目,早在2016年,亞馬遜、微軟、谷歌、IBM和Facebook五大美國最具AI技術(shù)實(shí)力的巨頭就聯(lián)合成立了一家非營利性的人工智能合作組織(Partnership on AI)以解決AI倫理問題,這一組織在2017年1月迎來了蘋果。
2017年微軟在內(nèi)部成立了人工智能倫理委員會(huì)(AETHER);2018年,在F8開發(fā)者大會(huì)上,F(xiàn)acebook宣布已成立專門倫理團(tuán)隊(duì)防止人工智能的偏見。
當(dāng)初讓AI進(jìn)入大眾視野的是打敗李世石的AlphaGo,其開發(fā)公司是英國的DeepMind公司。作為AI標(biāo)桿,DeepMind自成立以來,就將AI倫理放在跟技術(shù)同等重要的位置。2014年,谷歌以6.5億美元的價(jià)格收購DeepMind,DeepMind的創(chuàng)始人設(shè)定的交易條件之一是谷歌創(chuàng)建一個(gè)AI倫理委員會(huì)。
谷歌在2019年才兌現(xiàn)這一條件,成立人工智能倫理委員會(huì),以指導(dǎo)公司“負(fù)責(zé)任的人工智能發(fā)展計(jì)劃”,不過這一委員會(huì)很快就因?yàn)閱T工抗議而夭折。谷歌高管組成的高級(jí)技術(shù)審查委員會(huì)(ATRC)在事實(shí)上扮演了谷歌AI倫理管理的角色,ATRC由谷歌首席法律官肯特·沃克(KentWalker)管理,余下成員均是谷歌極具權(quán)勢的高管。
AI倫理在中國已經(jīng)引發(fā)科技巨頭和監(jiān)管部門的關(guān)注,且很快會(huì)轉(zhuǎn)化為具體行動(dòng)。
AI倫理委員會(huì)將成科技大公司標(biāo)配
百度是中國布局AI最激進(jìn)的科技巨頭,擁有領(lǐng)先的AI技術(shù),其掌門人李彥宏多年來一直在為AI搖旗吶喊和建言獻(xiàn)策。今年兩會(huì)上,李彥宏第一個(gè)提案就是關(guān)于人工智能倫理,其認(rèn)為:
“人工智能技術(shù)近年來發(fā)展非常迅速,不僅理論上不斷推陳出新,在計(jì)算能力上也越來越強(qiáng),數(shù)據(jù)也越來越多,可做的事情也越來越多,因此需要從社會(huì)、政府和公眾的角度來考慮在人工智能發(fā)展道路上,什么該做,什么不該做,什么是好的,什么是壞的,盡量避免人工智能向不好的方向發(fā)展。比如,怎么避免大量的失業(yè),怎么保證數(shù)據(jù)的安全,怎么不被黑客所攻擊,等等。李彥宏認(rèn)為這些問題需要及早地從全局來進(jìn)行考慮。”
在最近的智博會(huì)上,李彥宏認(rèn)為,人工智能不再講究酷炫,而是講究扎扎實(shí)實(shí)推進(jìn)和落實(shí),對于人工智能發(fā)展,李彥宏提出了三個(gè)建議,第一個(gè),就是要關(guān)注安全和效率。
同樣是在今年的兩會(huì)上,馬化騰也專門就科技倫理建設(shè)提出建言,他認(rèn)為,只有進(jìn)一步加強(qiáng)科技倫理對科技活動(dòng)的引導(dǎo)和規(guī)范,才能促使科技活動(dòng)朝著更加有利于人類和人類社會(huì)的方向發(fā)展。
騰訊雖然不強(qiáng)調(diào)技術(shù),卻是AI技術(shù)應(yīng)用的身體力行者,致力于將AI技術(shù)應(yīng)用在公司業(yè)務(wù)方方面面,馬化騰則是中國較早關(guān)注AI倫理的企業(yè)家,在去年的世界人工智能大會(huì)上,馬化騰提出AI發(fā)展要做到四可:
在未來人工智能是否能做到“可知”“可控”“可用”“可靠”,對于全人類能否更好地利用人工智能創(chuàng)造價(jià)值非常重要。人工智能需要做到可知,讓算法更加清晰;做到可控,避免人工智能被不發(fā)分子利用,危害社會(huì);做到可用,盡可能多的讓所有人都能享受到技術(shù)紅利,減少技術(shù)鴻溝;而做到可靠則需要我們不斷努力,以修復(fù)漏洞、達(dá)到安全穩(wěn)定,讓人工智能更好地為人類服務(wù)。
今年的世界人工智能大會(huì)上,馬化騰在演講中再次指出:
AI治理的緊迫性越來越高,應(yīng)以“科技向善”引領(lǐng)AI 全方位治理,確保AI“可知”、“可控”、“可用”、“可靠”。
騰訊將愿景和使命升級(jí)成“科技向善”四個(gè)字,與AI時(shí)代新的倫理挑戰(zhàn)有直接關(guān)系,當(dāng)時(shí)馬化騰轉(zhuǎn)發(fā)的鏈接是將跨年齡人臉識(shí)別技術(shù)應(yīng)用于尋人這一公益場景。科技向善提出者是“大師兄”張志東,他一直在觀察技術(shù)對社會(huì)的影響,希望騰訊的技術(shù)可以造福于人。什么是善?這是道德層面的事情,科技向善本質(zhì)是一個(gè)科技倫理的話題。張小龍說,善良比聰明更重要,這跟科技向善是一脈相承的,善良比聰明重要,道德比技術(shù)重要,倫理是科技發(fā)展的前提。
科技巨頭已經(jīng)在自覺行動(dòng),監(jiān)管部門則從頂層設(shè)計(jì)上決定了AI倫理的規(guī)范和執(zhí)行。
今年6 月國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布報(bào)告,提出發(fā)展“負(fù)責(zé)任的人工智能”,這是我國首次發(fā)布人工智能治理原則。7月24日,《國家科技倫理委員會(huì)組建方案》被通過,根據(jù)《國家科技倫理委員會(huì)組建方案》要求,組建國家科技倫理委員會(huì),會(huì)議指出:
科技倫理是科技活動(dòng)必須遵守的價(jià)值準(zhǔn)則。組建國家科技倫理委員會(huì),目的就是加強(qiáng)統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),推動(dòng)構(gòu)建覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系。要抓緊完善制度規(guī)范,健全治理機(jī)制,強(qiáng)化倫理監(jiān)管,細(xì)化相關(guān)法律法規(guī)和倫理審查規(guī)則,規(guī)范各類科學(xué)研究活動(dòng)。
顯而易見,國家層面、行業(yè)層面和公司的AI倫理委員會(huì)勢在必行。如何避免企業(yè)利益站在倫理之上?如何避免AI技術(shù)發(fā)展超過倫理建設(shè)?行業(yè)巨頭如何共同遵守倫理約束?國外科技巨頭的科技倫理委員會(huì)、醫(yī)療行業(yè)的醫(yī)學(xué)倫理委員會(huì),值得借鑒。
數(shù)百年來,人類一次次成功駕馭一代代新技術(shù)改變世界,人類文明得以不斷進(jìn)化,人類社會(huì)突飛猛進(jìn),相信人類同樣可以很好地駕馭AI,讓AI向善,造福于人類。
來源:羅超頻道
評(píng)論
查看更多