最近,DeepFake 技術又一次站在了風口浪尖上。不只是因為它能在小電影上移花接木,而是立法者終于意識到它的可怕之處。
6 月初,一份有關馬克·扎克伯格的假視頻在國外社交媒體 Instagram 和 Facebook 上廣為流傳。
視頻中的人,無論從相貌聲音,還是穿著打扮,都跟真的扎克伯格幾無二致。他能眨眼,會用手勢,嘴/臉部動作和畫外音音軌高度吻合。乍看之下,幾乎找不到破綻,只是聲音有些奇怪。
更早之前,美國眾議院議長南?!づ迓逦饕步洑v了類似的事件。有人通過剪輯、拼接和慢放等手段制作了一段她的演講視頻,雖然沒有用到 AI 技術,但視頻中的她看起來有些神志不清,說話結結巴巴,語速緩慢,像是醉酒一樣。
這段視頻甚至引來了美國總統特朗普的嘲諷(兩人素來不合)。
令人不解的是,這些社交平臺并沒有選擇第一時間屏蔽虛假視頻。事實上,正是因為 Facebook 拒絕撤下佩洛西的假視頻,才導致有人做出了其 CEO 扎克伯格的假視頻,來考驗 Facebook 對虛假信息的衡量標準,看它會不會做出“自己打臉”的事情。
按照 Facebook 的官方回應,佩洛西的視頻“沒有違反平臺的政策,因為所有人都可以自由表達自己(的想法),如果有第三方事實檢測工具認定視頻是假的,視頻就會被打上標簽,提醒用戶注意其真實性,而且還會在推送中降低權重?!?/p>
換句話說,Facebook 的態度就是:我們不會移除編輯過的假視頻,但會讓用戶知道它不是真的。
其他社交巨頭也都紛紛表態,Twitter 選擇了跟 Facebook 和 Instagram 站在一隊,不會刪除這些假視頻,而谷歌旗下的 YouTube 則為了保險起見,選擇了刪除視頻。
科技圈內部兩極分化的情況也引發了輿論熱議。有的人認為,縱容虛假信息流傳會造成更大的混亂,尤其在政治和外交問題上,因此必須嚴格管控。
也有人認為,這些視頻不會對某個個體造成實質性危害,貼上虛假標簽即可。如果今天刪除了它們,就會開創一個糟糕的先例,明天可能導致更嚴格的管控政策。
美國國會出手
美國國會也盯上了假視頻和它背后的 AI 技術,因為不僅是佩洛西,就連總統特朗普都曾受到假視頻的困擾。
與此同時,領英(LinkedIn)上還出現了一個疑似間諜的賬號。她的名字是 Katie Jones,頭像是一個典型的白人女性,畢業于密歇根大學,在美國國際戰略研究中心(CSIS)工作。她的職場網絡雖然只有 50 多人,但里面有美國參議員助理、副助理國務卿,以及美聯儲席位候選人兼經濟學家 Paul Windfree。
根據調查,CSIS 根本沒有這樣一個員工,密歇根大學也沒有她的學位記錄,而且她聯系網內的人都不認識她。肖像審查專家判斷,她的頭像很可能是用 AI 技術生成的假臉,很多特征與 AI 假頭像高度吻合。
再結合她添加的人都是政府重要人物,專家普遍認為,其目的很可能是隱藏自己,從他們身上獲取信息,甚至添加更多位高權重的人物,將領英作為從事隱秘間諜活動的渠道。
多名議員認為,如果對此類事件放任不管,不僅會影響到政治人物,還會傷害弱勢群體和少數族裔,甚至波及 2020 年的美國總統大選。
因此,美國國會召開了有史以來第一場有關 DeepFake 類技術的聽證會,會議已于 6 月 13 號結束,相關法案也已經醞釀了數月之久,出臺對該技術和社交平臺的約束政策只是時間問題。
縱觀歷史,能受到如此待遇的技術并不多見,立法者如此大張旗鼓地針對它,足以看出它潛在的破壞力。
AI 換臉術如何走紅
如果放在 10 年前,恐怕很少有人會質疑一段視頻的真實性,尤其是人臉清晰可見的視頻。只不過隨著 AI 技術的進步,憑空造出一個以假亂真的人臉,替換視頻中的人臉,或者替換視頻中的整個人物,都早已不是遙不可及的事情,甚至可能有些過于容易了。
2017 年底橫空出世的 DeepFake 技術,雖然不是第一個實現換臉的技術,但卻是將 AI 假視頻帶入大眾視野的先驅。這是一種基于深度學習的偽造技術,適用于修改圖片和影像,可以實現人臉的移花接木。哪怕是動圖或視頻中的人物,也可以被替換成毫不相干的另一個人。
DeepFake 的走紅要歸功于腦洞大開的網友,他們在***中引入了 DeepFake 技術,將其中女主角的臉,替換成了一些當紅女明星的臉,蓋爾·加朵、艾瑪·沃特森、斯嘉麗·約翰遜和泰勒·斯威夫特等大牌女星都難逃一劫,紛紛被替換到了不可描述的場景中。
由于視頻中角色的臉部動作和視角變化較少,因此除了個別幀數出現渲染模糊和混亂的問題,DeepFake 的替換效果足以以假亂真。
不過,出于惡搞精神也好,獵奇心態也罷,這些人無疑是濫用了 DeepFake 技術,對當事人造成了傷害,而且維權無門。飽受其害的“黑寡婦”斯嘉麗就曾在公開場合表達了自己的憤怒和無奈。
鑒于其造成的惡劣影響,很多社交平臺都開始封殺 DeepFake 視頻。該技術的開發者也在 GitHub 上呼吁,“不要將 DeepFake 的換臉技術用于***,它的價值并不在此?!?/p>
實際上,能夠制造假圖片和假視頻的 AI 技術不僅僅只有 DeepFake,相關技術在過去五年里層出不窮。這都要歸功于另一項大名鼎鼎的深度學習技術:生成式對抗網絡(GAN)。
這是一種讓兩個神經網絡“左右互搏”的技術,其中一個網絡負責生成物體,一個網絡負責判別物體,兩者通過不斷對抗來創造非常真實的虛構圖像、聲音或視頻。
自 2014 年 Ian Goodfellow 發明 GAN 以來,世界范圍內的很多深度學習團隊和企業都開始在上面添磚加瓦,各種 GAN 框架漫天飛舞。
在 DeepFake 出現之前,就已經有了基于 GAN 的 Face2Face 技術和 CycleGAN 模型。前者可以通過攝像頭捕捉人的臉部動作,然后實時轉移到現有視頻中的另一張人臉上,后者則可以改變圖片和視頻中物體或場景的樣貌,實現馬與斑馬之間的轉換。
類似的技術還有很多。UC 伯克利大學團隊的 Everybody Dance Now,融合吸收了很多種 GAN 框架的精髓,可以分分鐘讓舞蹈小白看起來像是舞王附身,堪稱是“舞蹈界的 DeepFake”。
英偉達的 StyleGAN,可以自動生成惟妙惟肖的圖片,適用于人臉、汽車、風景和動物等。對于人臉來說,StyleGAN 用來混合的特征包括性別、膚色、臉型、姿勢、表情、胡須、是否戴眼鏡、頭發長度和顏色等等。它雖然不是一個完美的模型,生成的圖片經常出現瑕疵,但總體上效果出眾。
有人用 StyleGAN 制作了一個網站 thispersondoesnotexist.com,每次刷新都會生成一張人臉圖片,偶爾還真會刷出現高顏值的人。唯一的問題是,這人不是真正存在于這個世界上的。上文提到的那個虛假的領英女性頭像,專家懷疑就是 StyleGAN 或者其他 GAN 框架的杰作。
AI 造假技術觸手可及,是福是禍?
除了主流的 DeepFake 和 GAN,還有很多 AI 技術可以用來生成視頻,像香港科技大學陳啟峰教授團隊的級聯優化網絡(CRN),僅憑一張簡單的場景布局圖片,就可以生成無數個高分辨率的圖像和視頻,還有三星 AI 實驗室讓靜態蒙娜麗莎和愛因斯坦圖片動起來的元數據框架。
然而,我們在感受 AI 技術帶來的驚喜的同時,也必須意識到一個問題:借著開源的東風和技術無罪的精神,AI 造假的門檻越來越低了。
隨便在網上一搜“AI 換臉”,就會找到很多神經網絡訓練教程,如果有編程功底,從開源社區拿到代碼和數據就可以自行搭建框架和訓練。
即使不懂得如何構建神經網絡,看不懂晦澀的論文,甚至是不懂編程也沒問題,網上早就有 fakeapp 和 faceswap 等現成的換臉軟件,只要電腦硬件足夠強大,跟著教程走,自制簡單的換臉短視頻并不困難。
往好的方向看,這種趨勢降低了視頻制作的門檻,方便了大眾進行藝術創作,尤其是以惡搞為主要目的的視頻。在 B 站上就能找到很多高質量“AI 換臉”視頻,譬如把《復仇者聯盟》中的美國隊長改成“象牙山隊長趙四”,把雷神改成徐錦江,把《武林外傳》中的佟湘玉改成“黑寡婦”斯嘉麗。
拋開法律層面存在的爭議不提(涉嫌侵犯肖像權),如果我們用最大的善意去看待這些惡搞,制作者的初衷可能并沒有惡意,只是單純地想讓看客一笑,用 AI 技術滿足大家最豐富的腦洞和想象力,畢竟里面沒有涉及到形象侮辱和名譽詆毀。
而且用的好了,我們還能看到“AI 復活張國榮”這樣的致敬作品。或許等技術更加成熟,越來越多逝去的名人會以“復活的”形式重新回到熒幕上。《速度與激情 7》中最后出現的保羅沃克就使用了類似的技術。
但如果往壞了想,AI 技術被居心叵測的人利用,就會出現上文說到的濫用情況。比如把女明星的臉放在色情或暴力視頻中,用來偽裝成一個不存在的人,偽造一個從沒發生過的事,或者把一個人做的事放在另一個人身上,從而誤導不明真相的人,混淆視聽。
如何破解 AI 操縱信息的困境?
AI 技術的進步無疑是一件利大于弊的事情,技術本身不存在原罪。只不過我們必須制定配套的規則、規范和保護措施,才能有效避免技術濫用的情況發生,并且將發生時的損失降到最低。
美國議員正在起草的法案指出,整個 AI 產業,從上到下都必須參與其中。
首先,企業和研究機構需要開發對應的技術,用來有效識別虛假 AI 信息。網絡上的信息載體可以大致分為文字、圖片、音頻和視頻。不幸的是,每一種都被 AI 攻陷了。
OpenAI 的 GPT-2 模型可以生成流暢連貫的假文章,GAN 和 DeepFake 可以制造逼真的圖片和視頻,至于模擬聲音,可以用 RNN 等深度學習模型完成,搜狗就剛剛展示過即時變聲的酷炫功能。
不過我們可以用技術來對抗技術,用 AI 來對抗 AI。從本質上看,虛假信息的傳播問題可以有兩種控制方法:一是從源頭入手,尋找證據,查驗信息的真實性;二是從數字信息本身入手,檢查是否存在修改痕跡。
Adobe 就發明了檢測圖像是否經過 PS 的工具,可以用卷積神經網絡識別圖片有沒有被修過的痕跡。
美國國防部高級研究計劃局(DARPA)也早就注意到了 DeepFake,并且開發了一種 AI 工具,可以在 GAN 生成的視頻和圖像中捕捉微妙的生理信號線索,比如不自然的眼睛運動和呼吸頻率,從而識別假視頻。在 SytleGAN 和 BigGAN 還沒有誕生的時候,準確率甚至高達 99%,只是現在應該達不到這個水平了。
也有研究團隊發明了新的神經網絡模型 XceptionNet,用假視頻數據集訓練 AI,教它如何識別假視頻。在清晰度比較高的情況下,準確率高達 95% 以上。
然而“造謠動動嘴,辟謠跑斷腿”,打假不如造假吃香,學術界在對抗 GAN 方面做出的努力,仍然遠不及研究 GAN 的努力。據 DeepTrace 平臺統計,2018 年,全球涉及到 GAN 生成圖像和視頻的論文多達 902 篇,而研究如何識別合成圖像和視頻的論文只有 25 篇,僅為前者的 1/36。
其次,社交平臺必須承擔其監督和管理的責任,建立更完善的虛假信息檢測機制。
這就要求 Facebook 和 Twitter 這樣的社交平臺拿出更積極的態度,而不是像現在這樣,遇到難以控制的虛假信息就貼上個標簽放任自流,甚至于連標簽都懶得貼,直到有媒體報道才后知后覺。
所謂的 AI 算法和大數據加持下的事實檢查工具,也遲遲沒有大規模使用,偶爾使用還會鬧出啼笑皆非的笑話,比如巴黎圣母院著火的視頻被 YouTube 識別為 911 事件,只好依賴效率低下的人力篩查。這次扎克伯格和佩洛西的假視頻,到本文發稿時,也沒有在醒目的地方打上虛假信息的標簽。
美國議員 Adam Schiff 認為,歸根結底,是因為現有法律沒有要求社交平臺對平臺上用戶發表的內容負責,他們沒有足夠的動力去改進。
因此,最后需要配合的就是立法和監管機構。相比近幾年 AI 技術的突飛猛進,配套的法律法規顯得有些落伍了。針對 AI 合成內容,如何監管,如何收集證據,如何判罰和量刑等問題都沒有確切的、詳細的、可操作的法律條款作為依據。
專家建議,應當讓社交平臺采取合理的措施,保證內容的節制性,從而更有動力打擊 DeepFake 等技術制造的虛假信息。
不過,當這些條件都尚未成熟的時候,上網沖浪的我們都應該牢記一件事情:文字、圖片、音頻和視頻都有可能是偽造的,不能輕易地相信網絡上的信息。
或許這很可悲,但我們就跟斯嘉麗一樣無奈。
-
圖像處理
+關注
關注
27文章
1289瀏覽量
56723 -
AI
+關注
關注
87文章
30728瀏覽量
268889 -
GaN
+關注
關注
19文章
1933瀏覽量
73286
原文標題:DeepFake 換臉術混淆視聽,攪亂美國政壇
文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論