了解如何在訓(xùn)練您的 AI 驅(qū)動(dòng)系統(tǒng)時(shí)避免數(shù)據(jù)集、關(guān)聯(lián)、自動(dòng)化和其他類(lèi)型的偏見(jiàn)。
科技行業(yè)對(duì)人工智能的使用越來(lái)越興奮,因?yàn)樗_(kāi)辟了新的引人入勝的體驗(yàn),并為企業(yè)家和最終用戶(hù)帶來(lái)了前所未有的效率。但是,如果您決定加入 AI 的競(jìng)爭(zhēng),請(qǐng)準(zhǔn)備好順其自然,因?yàn)槌藥?lái)紅利之外,人工智能也往往會(huì)掀起波瀾——偏見(jiàn)是最煩人的失誤。
要成功構(gòu)建公正的 AI 解決方案,您應(yīng)該了解何時(shí)以及為何會(huì)出現(xiàn)偏見(jiàn)。在此功能中,我們將充實(shí) AI 偏見(jiàn)的五個(gè)核心類(lèi)別,對(duì)其進(jìn)行分析將幫助您準(zhǔn)備最佳數(shù)據(jù)集以訓(xùn)練您的潛在系統(tǒng)。
數(shù)據(jù)集偏差
傳統(tǒng)觀念認(rèn)為,用于訓(xùn)練 AI 的數(shù)據(jù)越多,交付的解決方案就越公正。但實(shí)際上,重要的是多樣性,而不是數(shù)量。算法本身可能沒(méi)有偏差,如果您的數(shù)據(jù)過(guò)于同質(zhì),它可能會(huì)導(dǎo)致 AI 誤入歧途:您的系統(tǒng)將從有缺陷的示例集中學(xué)習(xí)并輸出有偏差的結(jié)果。
也就是說(shuō),沒(méi)有提供不同種族和膚色的多樣化數(shù)據(jù)的計(jì)算機(jī)視覺(jué)解決方案可能無(wú)法識(shí)別非裔美國(guó)人或亞洲人,從而導(dǎo)致無(wú)數(shù)客戶(hù)不滿(mǎn)意。
這正是尼康的 Coolpix S630 所發(fā)生的事情。每次數(shù)碼相機(jī)拍下微笑的亞洲用戶(hù)時(shí),都會(huì)彈出一條屏幕消息,詢(xún)問(wèn)“有人眨眼了嗎?” 只有當(dāng)人們不自然地睜大眼睛擺姿勢(shì)時(shí),通知才會(huì)停止出現(xiàn)。這種情況導(dǎo)致客戶(hù)以推特帖子的形式提出投訴,并進(jìn)一步負(fù)面媒體報(bào)道。
如果您不想重復(fù)尼康的故事并被指責(zé)創(chuàng)建“種族主義”面部識(shí)別系統(tǒng),請(qǐng)使用大規(guī)模、多樣化的數(shù)據(jù)集來(lái)訓(xùn)練您的算法。
關(guān)聯(lián)偏差
您應(yīng)該注意的另一種偏差是關(guān)聯(lián)偏差,當(dāng)用于訓(xùn)練算法的數(shù)據(jù)被關(guān)于性別、種族等的刻板印象強(qiáng)化時(shí),可能會(huì)出現(xiàn)關(guān)聯(lián)偏差。
也就是說(shuō),用于預(yù)測(cè)犯罪的人工智能軟件可能會(huì)導(dǎo)致不公平地針對(duì)少數(shù)族裔高度集中的社區(qū)。問(wèn)題在于該系統(tǒng)更多地考慮了警方以前的記錄,而不是該地區(qū)的實(shí)際犯罪率。考慮到警察傾向于在特定社區(qū)巡邏并專(zhuān)注于某些種族群體,他們的記錄可能會(huì)過(guò)度代表這些群體和社區(qū)。
數(shù)據(jù)輸入的偏差也可能是社區(qū)驅(qū)動(dòng)的,因?yàn)榫鞌?shù)據(jù)庫(kù)中的許多犯罪都是由公民報(bào)告的。
關(guān)聯(lián)偏見(jiàn)的另一個(gè)例子是谷歌在 2015 年對(duì)“CEO”一詞的搜索結(jié)果。根據(jù) The Verge的數(shù)據(jù),結(jié)果中顯示的圖像中只有 11% 描繪了女性——相比之下,真正的 27% 的女性 CEO美國(guó)。
為避免您的 AI 被有偏見(jiàn)的關(guān)聯(lián)驅(qū)動(dòng),請(qǐng)為其提供非同質(zhì)數(shù)據(jù),并利用領(lǐng)域?qū)<谊P(guān)于歷史不平等以及文化和社會(huì)關(guān)注領(lǐng)域的知識(shí)。
自動(dòng)化偏差
人工智能的另一個(gè)問(wèn)題是它可能會(huì)做出自動(dòng)決策,推翻人類(lèi)的社會(huì)、文化和其他考慮。這通常發(fā)生在自動(dòng)輔助工具上,例如進(jìn)行無(wú)關(guān)的自動(dòng)更正的拼寫(xiě)檢查程序、傾向于男性化的機(jī)器翻譯或“白色”表情符號(hào)自動(dòng)提示。
自動(dòng)化偏差 (AB) 的另一個(gè)例子是自動(dòng)化電子處方的臨床決策支持 (CDS) 系統(tǒng),即定義藥物-藥物相互作用并排除不良事件。當(dāng)臨床醫(yī)生過(guò)度依賴(lài) CDS,降低數(shù)據(jù)收集和分析的警惕性時(shí),就會(huì)出現(xiàn)問(wèn)題。
正如NCBI 進(jìn)行的一項(xiàng)研究指出的那樣,“AB 遺漏錯(cuò)誤,用戶(hù)沒(méi)有注意到問(wèn)題,因?yàn)樗麄儧](méi)有收到 CDS 的警告,而傭金錯(cuò)誤,用戶(hù)會(huì)遵守不正確的建議。”
AB 也經(jīng)常出現(xiàn)在高科技駕駛艙的決策支持工具中,用于計(jì)算節(jié)油路線并診斷系統(tǒng)故障和異常。盡管這些自動(dòng)輔助設(shè)備旨在提高飛行員的表現(xiàn),但一些事后分析揭示了在航空中使用此類(lèi)先進(jìn)系統(tǒng)的問(wèn)題,特別是模式誤解和錯(cuò)誤、飛行員對(duì)輔助設(shè)備在做什么的困惑,以及難以跟蹤飛行表現(xiàn)。決策支持工具。
最重要的是,據(jù)報(bào)道,自動(dòng)提示降低了飛行員以認(rèn)知、復(fù)雜的方式尋求額外診斷信息和處理可用數(shù)據(jù)的可能性。
為避免可能出現(xiàn)的錯(cuò)誤和伴隨的不良事件,人工智能專(zhuān)家應(yīng)擴(kuò)大用于其自動(dòng)化解決方案的信息抽樣范圍,決策者應(yīng)顯著減少此類(lèi)工具的濫用。
交互偏差
一些 AI 系統(tǒng)通過(guò)與用戶(hù)的交互進(jìn)行批量數(shù)據(jù)訓(xùn)練。如果推動(dòng)這種互動(dòng)的用戶(hù)有偏見(jiàn),那么請(qǐng)確保您的解決方案也會(huì)如此。
算法如何偏離軌道的一個(gè)生動(dòng)例子是微軟的 Tay,這是一個(gè) Twitter 聊天機(jī)器人,旨在通過(guò)“隨意和有趣的對(duì)話”與人們互動(dòng)。當(dāng)用戶(hù)開(kāi)始發(fā)表帶有厭惡女性、種族主義和唐納德特朗普主義言論的攻擊性推文時(shí),事情就出了問(wèn)題,這讓機(jī)器人鸚鵡向他們學(xué)習(xí)并以類(lèi)似的方式做出回應(yīng)。
結(jié)果,在不到 24 小時(shí)內(nèi),Tay 從“人類(lèi)超級(jí)酷”變成了徹頭徹尾的反猶太主義:
Facebook 是另一家定期未能保護(hù)其人工智能免受毒性影響的科技巨頭。今年春天,社交網(wǎng)絡(luò)對(duì)短語(yǔ)“video of”給出了明確的搜索預(yù)測(cè)。幾個(gè)月后,該公司允許用戶(hù)使用“猶太人仇恨者”和“希特勒沒(méi)有做錯(cuò)什么”等搜索詞組阻礙其支持人工智能的廣告平臺(tái),隨后為“學(xué)習(xí)”和“職位”類(lèi)別提供有偏見(jiàn)的自動(dòng)建議。
如果您的算法的構(gòu)建方式與上述算法相同,那么您將無(wú)法幸免于慘敗。避免在您的臉上留下雞蛋并解決交互偏見(jiàn)的一種方法是及時(shí)測(cè)試您的系統(tǒng)。
確認(rèn)偏差
與交互偏差一樣,確認(rèn)偏差也與用戶(hù)活動(dòng)交織在一起。問(wèn)題在于,這種扭曲的 AI 算法會(huì)根據(jù)其他人的選擇(閱讀、喜歡、點(diǎn)擊、評(píng)論等)提供內(nèi)容,并排除做出不太受歡迎的選擇的用戶(hù)的結(jié)果。這導(dǎo)致過(guò)于簡(jiǎn)單的個(gè)性化,缺乏多樣化的想法或替代方案。
也就是說(shuō),F(xiàn)acebook 的新聞提要在此原則下工作,極大地考慮了您的社交朋友的喜歡和分享。反過(guò)來(lái),雖然信息流是個(gè)性化的,但你會(huì)發(fā)現(xiàn)自己置身于可能與你自己的信念相沖突的“偏見(jiàn)泡沫”中,或者“隱藏”一系列對(duì)立的觀點(diǎn)。
LinkedIn 是另一個(gè)社交媒體平臺(tái),它發(fā)現(xiàn)向其成員提供由他們的聯(lián)系人共享、喜歡或評(píng)論的更新更相關(guān)——而不是其他方式。
考慮到這一點(diǎn),在構(gòu)建您自己的 AI 系統(tǒng)時(shí),請(qǐng)確保它能夠隨著您的用戶(hù)及其偏好隨時(shí)間的變化而動(dòng)態(tài)發(fā)展。
結(jié)論
人工智能偏見(jiàn)已經(jīng)成為一個(gè)經(jīng)常被講述的故事。但正如我們發(fā)現(xiàn)的那樣,人工智能算法的本質(zhì)可能并沒(méi)有偏見(jiàn),而正是他們所學(xué)的數(shù)據(jù)導(dǎo)致了令人尷尬的、令人反感的結(jié)果。但是,當(dāng)您從一開(kāi)始就認(rèn)識(shí)到并理解數(shù)據(jù)集中可能存在的偏見(jiàn)時(shí),就可以更輕松地針對(duì)有偏見(jiàn)的刻板印象關(guān)聯(lián)測(cè)試系統(tǒng)并創(chuàng)造更具包容性的體驗(yàn),同時(shí)平等地為每個(gè)人服務(wù)。
審核編輯 黃昊宇
-
AI
+關(guān)注
關(guān)注
87文章
30763瀏覽量
268909 -
數(shù)據(jù)庫(kù)
+關(guān)注
關(guān)注
7文章
3795瀏覽量
64366 -
人工智能
+關(guān)注
關(guān)注
1791文章
47208瀏覽量
238294
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論