很多人對AI充滿熱情,因為它可以實現自動化、可以在游戲中打敗人類、還能提高人們的整體生活水平。 這當然是不爭的事實,但AI仍存在缺陷甚至是危險,有可能是人為帶來的,也可能不是。即便在今天,仍有無數起AI擾民或危害生命的事件,這是怎樣發生的?以后AI會越來越普及,它的哪些潛在特性會給社會造成毀滅?
AI算法中的道德缺陷
AI有許多瑕疵,它們會滋生出道德問題。很多是因為訓練數據存在偏差,為了建立信息反饋循環模式。舉些例子看一看這些小錯誤會如何影響現實中的人。
1. 面部識別的訓練數據存在偏差
想象有一天,你從學校往家走,警察出現并出示了拘捕令,給你戴上手銬,要把你帶到拘留中心。你完全不知道自己犯了什么錯,而家人和鄰居都在一旁看著。到警局后,他們搜索全身,取指紋,拍照片,讓你在一個臟兮兮的牢房里待一晚上。你就坐在那兒等,想為什么被抓。
這就是發生在羅伯特身上的真事。他是個黑人,在美國法明頓希爾斯無緣無故遭逮捕。警方在對他進行盤問時,拿出了一張照片,上面有一個黑人男子在店內偷商品。威廉否認自己去過那里而且照片中并非他本人。 另一張照片是行竊者的近距離照片,怎么看都不像威廉,他說:“不,這不是我。你認為所有的黑人都長一個樣子么?” 警察為何會抓錯?這就是算法的問題了。警方通過人工智能搜尋犯罪嫌疑人,但很明顯這是錯的。AI怎么會出錯,它不應該非常準確嗎? 沒錯,AI通常很精準,但前提是訓練不存在問題。導致威廉被當成嫌疑人的最主要原因就是訓練數據中存在偏差。面部識別系統對白人相當的公平,可對于少部分群體就沒那么精確了。因為采用的數據集主要是白人面孔和少數其他群體的面孔,因此對黑人的識別度偏低。
盡管“深色皮膚男性”辨識度高,深色與淺色皮膚的辨識還是存在很大差距,特別是“深色皮膚女性”。這些成果屬于前沿科技公司的,也許不是那些警察用的。
2. YouTube的反饋系統
大家肯定都看過這個網站,在首頁會看到一個有意思的視頻或者流行視頻,一小時以后你仍然在這一頁,只是在不知不覺中看了更多的視頻。這就是推薦系統的作用,它會提供能留你在頁面更久的視頻,從而獲得更多的廣告利潤。 你也許會想:“在那個平臺待得更久一點又怎樣呢?又不會損害何人?!辈唬@個推薦算法會導致反饋里出現危害性內容。 YouTube的AI反饋循環就出現過一次非常可怕的問題:“網站的推薦算法讓那些戀童癖更容易在特定視頻的評論區尋找或分享兒童淫穢作品。這一發現令人恐怖的點有很多。不只是視頻被商業化,它的推薦系統正不斷給成千上萬的用戶推廣兒童視頻。” 反饋循環系統也會造成一種單一模式,觀看者可能看到的一直是他們排斥的內容。進而會有一些人永遠都不聽對立的聲音,促成兩極分化。 再者,這種系統會為陰謀論做宣傳。跟造成兩極分化一樣,它會讓對陰謀論稍稍感興趣或半信半疑的人相信這些話。推薦給你看的視頻越來越多,而它們都傳遞了同一個信息。
3. AI導致醫護時長縮短
2016年,一個新的算法被應用到了阿肯色州的醫療系統。該算法是為了更好地給醫護人員分配資源和時間,它會綜合好幾個因素來決定每位病人需要多少幫助。但醫護效率提高的同時也就意味著許多人的醫護時長會減少,可這些人往往最需要幫助。
軟件不會服務到糖尿病患者或大腦麻痹性患者,這個問題是源于一個漏洞和一些錯誤代碼。隨之而來的就是道德問題,我們是否該使用AI 來決定病者的健康呢?為什么這個州在未知或未檢測錯誤的情況下就使用該算法? 有個一目了然的、能夠體現算法影響人生活的例子來自泰米·道博。泰米·道博多年受大腦麻痹纏身,2008年搬到了阿肯色州。她需要非常多的幫助,無法靠自己挪動到輪椅,雙手僵硬。正因此,該州的醫護機構給她分配了最長的照顧時間,每周56個小時。
阿肯色州的醫療系統應用了AI算法后,這一切改變了。道博的醫護時間從原先的56小時縮到了32個小時!只有原先的56%!這一削減明顯對她的生活造成了巨大的影響。
AI的不當使用
還有一些例子講了AI是如何被有意用作不道德的操作,這比非人為的代碼錯誤還瘆人!
1. IBM與屠殺
沒錯,IBM在二戰中幫助納粹進行了大屠殺。你也許會好奇:“二戰有AI當后盾?”可以說類似吧,IBM當時研發了一套用于分類的制表功能。它不只是拆分卡片進行分類的簡單算法,而是更冗雜、需要大量維護的工具,不是平常所想的人工智能。雖是這么說,筆者依舊認為探討技術被不當使用很重要,無論是否是AI。
首先回顧這個機器如何運作:你會拿到一張穿孔卡,需要把它插進去;機器會讀信息,保存,最終輸出數字;這些數字代表人們會去哪個集中營,囚犯的類型以及他們會如何死。 一位名叫霍華德·卡特的經濟戰首席調查官這樣寫道:“希特勒的經濟戰,我們的一家(美)企業也這么做過。所以IBM跟納粹是一類人,整個世界都被國際怪物打壓?!?/p>
2. 換臉
換臉也是一種人工智能。它生成的圖像、視頻甚至是音頻極其真實,利用的就是對抗式生成網絡,這是一個深度學習模型。僅僅是為了娛樂而使用換臉無傷大雅,但換臉存在真實的危險性,同時也帶來了道德問題。 借助換臉制造危害的一種方式就是在政治領域。如果一篇推特都會導致局勢越來越緊張,那一個視頻或一段語音呢?一段辱罵其他政治大亨的錄音會在網上像病毒一樣擴散,兩極分化加深,人們若是信以為真局勢會更緊張。 另一種擾亂社會的方式就是用大量的虛假內容淹沒網絡。無論什么時候上網,怎么才能知道所見皆為真?如果網絡和媒體上的換臉鋪天蓋地,永遠都不會有人知道什么是事實什么是真的。就連文本都能生成虛假的,你怎么知道讀的是不是我寫的,還是機器人在誤導你。
最后一種會造成傷害的是淫穢作品。據2019年9月的一份報告顯示,網上96%的換臉應用都與淫穢作品相關。福布斯的一篇文章中是這樣說的:換臉型淫穢作品往往未經他人允許,會人工合成有明星或個人聯系人的視頻。
浮現出的道德問題
雖然聽起來很嚇人,但也許更糟糕的在后面。 AI和技術發展日新月異,我們最終會面對一種奧威爾主義局面。政府會有更多的授權,他們會通過AI了解我們何時在何地在做什么。相機里安裝的面部識別會監視你的每一個動作,麥克風會識別誰在講話,在說什么,預測算法會判斷你下一步的動作。
這又帶來了另一個問題,政府越容易追蹤你,就越容易擺脫他們討厭的人。下一個“希特勒”的工作會更高效,無需找討厭的人,因為已經知道他們在哪,隨時都可以找到。政府也可以查到誰在反對他們,然后更容易懲罰這些對立者。 有說服力的虛假文本和視頻會淹沒網絡,傳遞的是最不可信、無價值的信息。我們必須對AI保持警惕。
責編AJX
-
算法
+關注
關注
23文章
4607瀏覽量
92840 -
AI
+關注
關注
87文章
30728瀏覽量
268892 -
人臉識別
+關注
關注
76文章
4011瀏覽量
81860
發布評論請先 登錄
相關推薦
評論