在這個人工智能無處不在的時代,這可能會帶來持續的系統性歧視。這也是為什么麻省理工電腦科學AI實驗室的研究者們創立能減少人工智能偏見但不會降低預測結果準確率的方法的原因。
“我們把這看成是一個幫助人工智能工程師診斷出系統做出不公正預測的原因的工具箱,”麻省理工教授David Sontag說。相關論文由David Sontag,博士生Irene Chen和Fredrik D. Johansson共同完成。
Sontag表示研究者們發現人工智能模型更傾向于將女性識別為低收入,將男性識別為高收入。通過將數據源中的女性代表數量翻了十倍,不準確的結果數量下降了40%。傳統方法可能會提出通過將大多數種群的數據源隨機化來解決不同種群的結果不平等問題。論文中寫道:“在這個項目中,我們認為預測的公正性評估應在數據背景中進行,由不恰當的樣本大小或者未測量的預測變量導致的不公正應當通過數據匯集而不是約束模型來解決。”
預測準確率的不同有時可以歸咎于缺失數據或者結果無法預測。研究者們建議人工智能在接受公平性標準的檢驗前,應先分析其模型傾向,模型變化幅度等元素。研究者在論文中指出:“這暴露和區分了不恰當的數據采集所帶來的負面影響以及模型在公平性方面的自主選擇。提高公平性并不總會帶來預測準確率的降低,但肯定需要數據采集方面的投資和模型的發展。在高風險應用中,其產生的收益往往大于前期投入。”
一旦評估已經開始,研究者建議預計收集附加訓練樣本的影響,然后匯集數據來識別得到不公正結果的亞種群進而引導附加變量集合。這種方法曾被用于從基于統計數字,課本評價和病人死亡率的輸入項目中獲取平等的結果。
在過去幾年里人們對人工智能因偏見產生不準確結果進而帶來嚴重后果的擔憂持續增加。一些工具和方法試圖解決這一問題,例如今初創公司Pymetrics開源了其偏見探測工具Audit AI,九月IBM發布了基于算法的偏見探測云服務,谷歌也借助What-If工具和TensorBoard將人工智能偏見視覺化。
-
數據
+關注
關注
8文章
7085瀏覽量
89215 -
算法
+關注
關注
23文章
4622瀏覽量
93064 -
人工智能
+關注
關注
1792文章
47442瀏覽量
239012
原文標題:GGAI 前沿 | 減少AI偏見 麻省理工通過技術實現中立
文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論