普林斯頓大學的研究人員開發(fā)了一種工具,用于標記用于訓練人工智能(AI)系統(tǒng)的圖像集中的潛在偏差。這項工作是糾正和防止AI系統(tǒng)中普遍存在的偏見的一項較大努力的一部分,該偏見影響了從信貸服務到法庭判決程序的所有內(nèi)容。
盡管AI系統(tǒng)中偏見的來源多種多樣,但一個主要的原因是從在線資源收集的大量圖像中包含的定型圖像,工程師使用這些圖像來開發(fā)計算機視覺,這是AI的一個分支,允許計算機識別人,物體和動作。由于計算機視覺的基礎是建立在這些數(shù)據(jù)集上的,因此反映社會定型觀念和偏見的圖像會無意間影響計算機視覺模型。
為了從源頭上解決這個問題,普林斯頓視覺AI實驗室的研究人員開發(fā)了一種開源工具,該工具可以自動發(fā)現(xiàn)視覺數(shù)據(jù)集中的潛在偏差。該工具允許數(shù)據(jù)集創(chuàng)建者和用戶在使用圖像收集來訓練計算機視覺模型之前糾正代表性不足或刻板印象的問題。在相關工作中,Visual AI Lab的成員發(fā)布了現(xiàn)有方法的比較,這些方法可防止計算機視覺模型本身出現(xiàn)偏差,并提出了一種新的,更有效的緩解偏差的方法。
第一個工具稱為REVISE(揭示視覺偏見),它使用統(tǒng)計方法來檢查數(shù)據(jù)集的三個方面:基于對象,基于性別和基于地理位置的潛在偏見或代表性不足。REVISE是一種全自動工具,建立在早期工作的基礎上,涉及以需要用戶更多指導的方式來過濾和平衡數(shù)據(jù)集的圖像。該研究報告于8月24日在虛擬的歐洲計算機視覺會議上發(fā)表。
REVISE使用現(xiàn)有的圖像注釋和度量來評估數(shù)據(jù)集的內(nèi)容,例如對象計數(shù),對象和人的共現(xiàn)以及圖像的原產(chǎn)國。在這些測量中,該工具可顯示不同于中值分布的圖案。
例如,在一個測試的數(shù)據(jù)集中,REVISE顯示,包括人和花朵在內(nèi)的圖像在雄性和雌性之間是不同的:雄性更經(jīng)常出現(xiàn)在儀式或會議上,并帶有花朵,而雌性則傾向于出現(xiàn)在舞臺上或繪畫中。(分析僅限于反映圖像中出現(xiàn)的人的二元性別的注釋。)
一旦該工具揭示了這些差異,“那么,這就是一個完全無害的事實,或者是否正在發(fā)生更深層的事情,而這很難自動化,”計算機科學與專業(yè)副教授奧爾加·魯薩科夫斯基(Olga Russakovsky)說。視覺AI實驗室的調(diào)查員。Russakovsky與研究生Angelina Wang和計算機科學副教授Arvind Narayanan共同撰寫了該論文。
例如,REVISE顯示,包括飛機,床和比薩餅在內(nèi)的物體在包含它們的圖像中比在其中一個數(shù)據(jù)集中的典型物體更大。這樣的問題可能不會永久保留社會定型觀念,但是對于訓練計算機視覺模型可能會出現(xiàn)問題。作為補救措施,研究人員建議收集飛機圖像,其中還包括山峰,沙漠或天空標簽。
但是,計算機視覺數(shù)據(jù)集中全球區(qū)域的代表性不足,可能會導致AI算法出現(xiàn)偏差。與以前的分析一致,研究人員發(fā)現(xiàn),對于圖像的來源國(按人口標準化),美國和歐洲國家在數(shù)據(jù)集中的代表過多。除此之外,REVISE還顯示,對于來自世界其他地區(qū)的圖像,圖像標題通常不是使用本地語言,這表明其中許多圖像是被游客捕獲的,并可能導致某個國家/地區(qū)的視角偏斜。
Russakovsky說,專注于對象檢測的研究人員可能會忽略計算機視覺的公平性問題。她說:“但是,這種地理分析表明,物體識別仍然可能存在很大的偏見和排他性,并且會不平等地影響不同的地區(qū)和人民。”
共同作者,計算機科學研究生安吉麗娜·王說:“直到最近,才對計算機科學中的數(shù)據(jù)集收集實踐進行徹底的審查。”她說,圖片大多是“從互聯(lián)網(wǎng)上抓取的,人們并不總是意識到他們的圖片在[數(shù)據(jù)集中]被使用。我們應該從更多的人群中收集圖片,但是當我們這樣做時,我們應該小心我們以尊重的方式獲得圖像。”
“工具和基準測試是重要的一步……它們使我們能夠在開發(fā)初期就抓住這些偏見,并重新考慮我們的問題設置和假設以及數(shù)據(jù)收集實踐,”計算機科學助理教授Vicente Ordonez-Roman說。未參與研究的弗吉尼亞大學。“在計算機視覺中,有關刻板印象的表示和傳播存在一些特定的挑戰(zhàn)。諸如普林斯頓視覺AI實驗室所做的工作有助于闡明這些問題并引起計算機視覺界的注意,并提供了緩解這些問題的策略。 ”
視覺AI實驗室的一項相關研究對防止計算機視覺模型學習可能反映偏差的虛假關聯(lián)進行了研究,這些虛假關聯(lián)可能會反映偏差,例如過度預測活動(例如以女性形象烹飪或以男性形象進行計算機編程)。視覺提示(例如,斑馬是黑白的,或者籃球運動員經(jīng)常穿著球衣)有助于提高模型的準確性,因此在開發(fā)有效模型的同時避免出現(xiàn)問題性關聯(lián)是該領域的重大挑戰(zhàn)。
在6月舉行的虛擬計算機視覺和模式識別國際國際會議上提出的研究中,電氣工程專業(yè)的研究生Zeyu Wang及其同事比較了四種緩解計算機視覺模型偏差的技術。
他們發(fā)現(xiàn)一種稱為對抗訓練或“盲目的公平”的流行技術損害了圖像識別模型的整體性能。在對抗訓練中,模型無法考慮有關受保護變量的信息-在研究中,研究人員使用性別作為測試案例。在團隊的分析中,另一種方法稱為域獨立培訓,即“通過意識進行公平”,效果更好。
魯薩科夫斯基說:“從本質(zhì)上講,這意味著我們將針對不同性別進行不同的活動頻率,是的,這一預測將取決于性別。因此,我們只是接受這一觀點。”
本文中概述的技術通過與其他視覺提示分開考慮受保護的屬性來減輕潛在的偏見。
王澤宇說:“我們?nèi)绾握嬲鉀Q偏差問題是一個更深層次的問題,因為我們當然可以看到它存在于數(shù)據(jù)本身中?!彼f:“但是在現(xiàn)實世界中,人們?nèi)匀豢梢栽谝庾R到我們的偏見的同時做出良好的判斷”,并且可以設置計算機視覺模型以類似的方式工作。
責任編輯:lq
-
圖像
+關注
關注
2文章
1084瀏覽量
40455 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238298 -
數(shù)據(jù)集
+關注
關注
4文章
1208瀏覽量
24691
發(fā)布評論請先 登錄
相關推薦
評論